傅易安 (@Lopution)GPT 5.4在codex中的上下文应该设置多少比较好呢? 中发帖

都知道模型支持1m上下文,但可用性肯定没法做到接近1m了还不下降吧? 
另外codex的压缩做得也很强,感觉设置低一点影响也不大的样子。
目前设置了512k,佬们有实测过了吗?