goku123CodeX 使用Skill控制Subagent & AI4文献检索经历闲聊 中发帖

目前使用LLM多年,关于文献检索非常考验模型的联网能力和代理能力,目前GPT模型优于剩下两家,最让人觉得离谱的就是搜索起家的谷歌做出来的Gemini在这方面远不如ChatGPT。 
关于GPT多个模型谁更适合文献检索我也测试过,最终的结论是:5.4 Pro > 5.4 High (Codex) > 5.4 Thinking > 5.3 Instant。因为不是重点,测试内容以后有空再发,之前测试用Nano Banana总结一下:
[Gemini_Generated_Image_lwo5n2lwo5n2lwo5]
但是在测试过程发现,即使5.4 Pro也无法每次都保证最优,但是总体最优,尤其是5.4 Pro价格贵、速度慢,Codex的Fast模式进行文献检索其实效率更高,也有着比较接近的准确性。此外,多次检索并合并结果总是优于单次检索,即使前者的模型弱于后者,这可能是因为大模型本质还是...