Dhudean让LLM自己筛选上下文,代替RAG,效果会更好吗? 中发帖

有一个想法,可以叫它 “主控-工作AI” 架构,作为一个mcp服务或工程方案来实现。 
核心思路:
不再用Embedding模型做“粗筛”,直接让一群小的“工作AI”去阅读全部资料,用它们的智能帮“主控AI”筛选出最精华、最关键的上下文。
工作流程大概是这样:

拆分任务: 比如要分析一个项目,就把整个代码库按文件或模块拆开。
分发给“AI小队”: 每个“工作AI”分到一部分代码,同时告诉它们最终的目标是什么(比如用户的提问:“分析支付模块的并发风险”)。
智能筛选: “工作AI”的任务不是回答问题,而是判断自己手头的代码和目标是否相关。如果相关,就提取出最核心的函数、逻辑和注释。
汇总精华: 把所有“工作AI”筛选出的“精华片段”整合到一起,形成一份高质量、高浓度的上下文。
“主控AI”出马: 最后,将整合好的上下文返回给能力最强的“主控AI”(服务调用方,如claude,gemi...