正在缓冲99% (@huanchong) 在 GLM今天是不是又砍了 中发帖
API Error: The model has reached its context window limit.
模型达到上下文限制,以前我从来没出现过这个报错呀,而且以前上下文比今天还要多得多呀,我工作流以前最长的时候,一个任务让GLM跑了有 6 个多小时,都没出现过这个报错
自从它上市一直在降额度,一直在降智,说是扩容 也没见扩容推广到不少做各种地方全部都能用他免费的东西,免费就免费,这个不反对,但是你一下加这么多免费用户,你扩容啊,不说扩容到全部用户都完全没问题,你最起码该扩容的部分你要扩容啊,总会有免费用户留下来呀
而且就是自从它上市以来,Claude code里面调用GLM经常性出现卡住的情况,必须展示思考过程,然后再关掉它才继续走token,问官方的解答是“应该是客户端的问题,因为请求之后,模型会在后台执行,在客户端看到的只是模型返回的效果问题喔”但是我中转用Clau...