我不配我活该 (@Anano)DeepSeek团队却悄然放出了一篇新的学术论文。DeepSeek联合北大、清华共同撰写 中发帖

[48079a5060dab3cd61231044ee2e89a7] 
具体来说,新论文介绍了一个名为DualPath的创新推理系统,专门针对智能体工作负载下的大模型(LLM)推理性能进行优化。通过引入“双路径读取KV-Cache(类似记忆缓存)”机制,重新分配存储网络负载,将离线推理吞吐量最高提升 1.87 倍,在线服务的每秒智能体运行数平均提升 1.96 倍。