枭化物 (@wu_niao)关于5.2Codex长思考的原因? 中发帖

我发现 GPT5.2 在写代码情况上是先是举例 1 个方法然后反思 5 个可能存在的漏洞最后才开始写。 
也许这就是为什么 GPT5.2 修改代码慢的并且质量高的原因。
没有专门为 codex 进行优化,而是使用通用大模型进行深度思考,并且额度消耗看起来还不高。
比纯codex-max烧的慢些。
大伙的体验咋样?
[image]