@Ovler 在 Deep新模型似乎不止1M的上下文?有可能是3.2M 中发帖
拿一个跑团记录测试了一下,说读了92%,但这个跑团记录用DeepSeek V3 tokenizer来编码后为3,474,617token,92%是3196647.64,怀疑实际可用的是3.2M的上下文。
另外,总结出的编年史非常正确,基本无缺漏的概况了除掉结尾的全部内容,对结局预测也是没问题的。
[image]
[image]