欣 郁 (@user1164) 在 可能Kimi的工具调用能力还是有所欠缺?无法批量调用MCP 中发帖
因为一些原因,我很在意LLM的“批量调用MCP”的能力——具体而言,这是我自己的一个学术MCP工具[1],我先生成一个综述摘要,然后要求LLM将摘要拆分,然后逐个对摘要片段调用MCP处理。
本次测试的是Kimi-K2,官网api(已充值50元),客户端使用我最喜欢的chatwise。
chat-a3knmcktj7.pdf (319.7 KB)
很显然,KIMI-K2无法自动批量执行任务:仅处理完第一个片段后就自动截止了。
作为对比,gemini2.5 pro(vertex版)和doubao-1.6都可以完整执行批量任务[2]。
[1 ]GitHub - XinYu-pumch/BADR: Bulk Academic Deep Research (BADR)
[2] 【MCP工具自荐】B.A.D.R——你的本地、开源、免费的医学学术型深度学习助手