且拭羽 (@QieShiYu)kimi-k2.5有点猛啊,搜索能力上这波直追gpt-5.2-pro 中发帖

[image] 
对比看来感觉qwen3-max-thinking完全是走错了路子
比成本比不过deepseek、1T参数,结果比知识量也比不过gemini
然后又没有多模态……
各方面都很平庸,就导致这个模型完全找不到应用场景(反正我是没找到)
个人观点:后续模型发展会越来越分化,大而美一模通吃的时代结束了,各家厂商都得想办法找自己的落地场景,不止是应用落地,而是在模型训练阶段就要想好这个模型炼出来干什么
我感觉通义这波应该是踩坑了,这个模型调用量可能不会多好看
各个山头都被占领了,低成本deepseek凭借DSA遥遥领先,671B的模型1M输入才2¥……这怎么比?编程方面minimax、glm都在发光发热,再往上还有Opus和Codex、Gemini三座大山