真有你的哦 (@wuliaoqiecaicai)求教一个CodeX的上下文相关问题 中发帖

我看CodeX的上下文只有200K,昨天我用CodeX进行了20轮左右的对话大概有5000K的内容,但是精度依旧很高,这是什么原因?如果只是上下文压缩和对注意力机制,以及上下文语义进行了优化,但是20轮也保持了很高的精准度有点恐怖了吧?