@impouo【含剧透慎入】用《首无》娱乐测试4国产模型的长上下文能力 中发帖

本人坚定地支持国产模型,但一直保持客观审视地态度去观察每家国产模型。 
众所周知,context is all you need。除了模型能力以外,对长上下文的支持和上下文到一定长度后的性能都是很重要的。很多模型可能简单测试一下没事,但是一旦上下文到了100K以后性能骤降,开始幻觉。对于这方面我一直在观察。
收到林黛玉佬的启发 ⧉ RAG 再度吃灰!利用 Opus 4.6 の 1M 上下文一发抛总结英文原著全书! ,我决定也找一本中文小说来测试大模型对长上下文的的能力。在这里,我选择了日本小说家三津田信三的推理小说《如首无作祟之物》作为测试。这个《首无》呢,送进各种Cloud Code和kimi code中,显示其上下文使用大概是150K左右。我认为是一个比较合适的这样的一个长度,因为目前大部分国产模型所设定的上下文就是200~300K之间,而150K呢恰好是一个超过100K,接近上限但...