@FredericMN 在 讨论:官渠 GLM5 有没有可能比逆向 Opus 更好用? 中发帖
现在御三家模型渠道都很多,可正儿八经的官渠尤其是anthropic的还是很贵。
我也在用咱们站内的中转,有MAX号池、2api、aws逆向各种渠道,渠道间的价格更是差了十倍不止,但就同样调用opus-4.6模型而言,很难量化不同渠道下的模型能力差异。
之前看到过一个数据(印象中是 MiniMax 或智谱在 X 上发的),说的是即便是官方合作的模型聚合平台,同一模型的工具调用成功率也存在差异,官渠始终是最高的。
这就引出一个问题:中转/逆向渠道在system prompt 注入、请求头差异、请求排队策略等环节,到底做了多少我们看不到的"优化"?这些隐性损耗累积起来,对模型的实际表现影响有多大?
所以我在想有没有一种可能:国产模型走官方渠道(比如GLM5),在实际体验上反而比逆向/中转来的 Opus 更好用?毕竟一个是完整链路零损耗,一个是层层转发后的"打折版"。
大家怎么看?有没有...