ktze感觉gpt5.5在cursor等第三方agent里长思考的频率远高于在codex,这是否意味着openai在codex上做了有偏向性的强化学习? 中发帖

如图,同一个账号用sub2api反代,接入codex里长思考的频率很低很低,我甚至一度以为是不是降智了,但测juice没问题和偶发的长思考又让我打消了这个怀疑。但今天接入cursor,几乎俩三步就要触发一次长思考。 
这是否说明gpt在codex上的强化学习应该是有显著偏好的,且更省钱。但是,对于代码质量而言,不知道是好处更多还是坏处更多了。不知道大家是否有相同的体验 🤣
[5b417b99200e9737d9f98696491062dc60fb15a9046e3966c3abb11d6557d32f]