ZHEN (@zhenhuang) 在 简单解释一下codex的上下文大小 中发帖
可能会有很多人疑惑,codex里面显示的context大小是272k,但是GPT5全系(除了chat)基本其实都是400k,为啥会有区别
[!example]
比如说我有如下session数据:(我在这个session只发送了一个prompt)
│ Token usage: 234K total (193K input + 40.9K output) │
│ Context window: 69% left (92.8K used / 272K)
Token usage: total=234,368 input=193,450 (+ 2,591,872 cached) output=40,918 (reasoning 26,448)
其中Token usage以及context window是通过code...