ori (@OriL)有没有办法,把一个问题拆解之后,分发给不同的模型去做. 中发帖

智能LLM路由需求描述
背景
我有两个不同类型的 LLM API:




类型
特点
适用场景




聪明模型
智能高、响应慢、价格贵
复杂推理、架构设计、代码重构


便宜模型
智能一般、响应快、价格低
简单任务、精确指令、小任务拆分



核心需求
我想要实现一个智能路由系统,能够:
1. 请求级别的智能路由
根据请求的复杂度,自动选择合适的模型:

简单问题(如 “2+2等于几”)→ 便宜模型
复杂推理(如 “分析微服务架构的性能影响”)→ 聪明模型

2. 任务内的子任务分发(核心需求)
这是我最想要的功能:
当一个复杂问题进来时,系统能够:

自动拆解 - 把大问题拆分成多个子任务
智能分发 - 不同复杂度的子任务分发给不同模型, 可以理解为设计,查错,架构等复杂问题交给聪明的模型去做,一些简单的操作交给便宜的模型去做.
结果汇总 - 汇总各子任务的结果,返回最终答...