傅易安 (@Lopution) 在 GPT 5.4在codex中的上下文应该设置多少比较好呢? 中发帖
都知道模型支持1m上下文,但可用性肯定没法做到接近1m了还不下降吧?
另外codex的压缩做得也很强,感觉设置低一点影响也不大的样子。
目前设置了512k,佬们有实测过了吗?
都知道模型支持1m上下文,但可用性肯定没法做到接近1m了还不下降吧?
另外codex的压缩做得也很强,感觉设置低一点影响也不大的样子。
目前设置了512k,佬们有实测过了吗?