鹿目圆 (@KanameMadoka)GPT-5.5在claude code自定义上下文长度的方法 中发帖

目前来看,gpt-5.5只有api调用才有满血1M上下文,从codex反代出来的只有400k窗口(其中258k输入来着) 
我尝试在claude code使用该模型,然而5.5没有100万上下文,强行设定的话会出问题(超出模型处理能力然后任务无法继续。。。)
然而我觉得400k虽然没那么多,但是也不至于经常触发窗口上限吧。。
结果就是用起来频繁压缩很头疼,以前用gpt-5.4的时候默认开了100万上下文(写[1M]后缀即可,现在的deepseek v4 pro如果开1M上下文也是这样干的)
然后使用/context指令才发现,只有200k上下文!!
经过查询和试错(期间我发现grok就算有网络搜索能力,给出的参数设置也是过时的,真正有效的数据还是gemini3.1pro结合谷歌搜索才找到的),
目前的结论是如下:
如果需要自定义模型在cc突破cc默认设置的200k上下文,同时又...