Epictus Wu (@epictus)研究一下codex 中发帖

抓包完成了之后我才发现Openai官方已经揭示了其中诸多的细节,详细见 博文 

目前的Agent在技术实现上还是比较统一,都通过Agent Loops的方式来做出智能体的Response:
[image]
对于用户的输入,也就是被结构化为Prompt的需求,首先会到达Model Inference。Inference实际上是相对于training而言的模型输出过程,这意味着并不修改模型参数,仅仅将输入的Token转化为输出的Token。(对于从自然语言到Token再从Token转译为自然语言的过程这里就省略而不赘述了)
这里的模型输出实际上是广义的,对应上面图中的:Agent Response 和Tool calls。

要把握住 Tool calls 中的 calls,也就是模型仅仅发出调用请求,但是工具的使用是在本地CLI的。

之所以把Tool calls也放到模型的...