aduang 在 GLM4.6 和 minimax-m2 在claude code中的表现 中发帖
glm4.6 pro 用了几天了,感觉整体体验还不错,这两天一直看到minimax-m2的贴 忍不住想拿来试试。
结果发现个奇怪的问题,glm4.6中 mcp和技能 不占用上下文(1 token)。
在minimax-m2 mcp和技能都占用了大量上下文。
他俩都能正常感知自动使用mcp和技能,那么到底他俩谁不正常?
穷鬼没用过官方模型,不知道官方模型在安装了技能和mcp后 通常会消耗多少token?
下面是使用相同测试指令的两个日志
2025-10-29-glm4-6.txt (20.1 KB)
2025-10-29-m2.txt (17.5 KB)