苍真 (@NoahChaos)一样的上下文, Claude占用Token是其他模型的1.5倍 中发帖

以前在OpenCode中使用Claude和GPT的时候就发现. 
同样GPT的聊天180ktoken, 一切到Claude就变成260ktoken, 我一度以为是GPT比较省Token.
[image]
图片只是说一下OpenCode看的位置, 无视数字, 并不是复现过程
现在用CC, 用Claude聊天, 显示160ktoken, 切到GLM5.1变成100ktoken.
[image]
图片只是说一下OpenCode看的位置, 无视数字, 并不是复现过程
好家伙, 怪不得Claude动不动就要压缩, 用起来价格跑那么快.