正在缓冲99% (@huanchong)GLM砍上下文了 中发帖

GLM砍上下文了,从昨天开始 经常性出现API Error: The model has reached its context window limit.在没上市之前,我的工作流一次性跑 6 个小时 都没遇到过这种报错,现在才跑了不到 40 分钟就报错,非得中断,然后重新启动工作流 才可以继续完成开发 
我还是包年的Coding Max,超售之后说扩容也没见到效果,反而上下文还一直在砍,首次响应越来越慢,要实在不行 就开个退款渠道也行,工单也是不回复
如果你要开他包年的套餐,不管哪个等级,我都劝你考虑一下,包月包季的套餐,你就现在也直接别开,你就等他GLM-5这个新模型出来以后,你再去开,因为只有新模型上了,他为了拉新人,他会给一个比较好的体验,越往后越难看,太他妈难看了,砍响应速度砍并发数量,现在又来砍上下文,还有什么是不能砍的?