鹏 张 (@zpgg1223)关于生图智能体的底层优化 中发帖

小白目前在vps搭建了一个生图智能体,说实话我完全不懂代码,全靠天才程序员Gemini写的底层和豆包写的前端。 
我目前的架构是FastAPI + Celery
我目前在 tasks.py 里采用的策略:
【1次大脑请求规划全局】(比如要生成N张图,就一次请求LLM让他生成N组个提示词) 【一个 for 循环并发 N次生图请求】(把N组的提示词 每生成一张就请求一次生图模型大香蕉)
但是目前感觉这样效率好像有点低,比如我生成10张图,我就要等1生成完再生成2直到10生成完(期间如果有请求失败,还会等待一段时间再进行n次请求直到成功或者n次耗尽),等的我都快睡着了,有没有办法让我同时调用10次生图模型API同时生成1-N这些图呢? 这对api有什么要求?还是需要我配置很多个API去进行队列询问? 还有会导致网络堵塞吗? 佬们是怎么样解决这个效率的问题呢?