@b9348 在 好像碰到了国内模型悖论 中发帖
昨天碰到一个情况
智谱GLM的方案是360B的强编程模型
比如Next JS想接入WebSocket在线对话的话,如果在现有项目里面接,非常容易出问题,各种各样的问题数不过来,要写非常非常长的提示词,比如消息分页、移动端优化、已读状态更新、信息流加载、滚动、UI错位,各种各种问题,几乎不可能一次就完成。很多问题是碰到以后才知道该怎么去写这个提示词。反正基本上缺少非常多的功能,几乎不可能一句话直接写一个能用的在线对话系统。
之前用Sonnet 4.5,其实Bug也很多。可能是这个NextJS确实不太适合接入WebSocket。不过比glm完成度还是很高的。
换成kimi K2.5的话,1000B大参数的模型。提示词也是由少到多逐渐往上加。但大参数的模型写出来的效果就是比参数小的模型要好。
Bug碰到的就少很多了。首先排除是我的经验来让我在用K2.5的时候写了更完善的提示词。因为实际...