coior (@maxsea) 在 dify模型问题-响应速度 中发帖
各位大佬, 现在服务器使用ollama部署了qwen2.5 3b模型.
gpu为 4070super. dify知识库查询时候, 响应速度比较慢. 有什么好的方式优化吗?
比如优化ollama模型或者更换更快的模型.