coior (@maxsea) 在 dify知识库问题 中发帖
本地部署了dify和ollama, 用作团队的知识库. 现在有几个问题. 请教下各位大佬.
不想用deepseek R1之类的思考模型. 有没有ollama搭建的回答比较快还好的模型推荐? qwen的可以吗?
dify每次问问题, 都要等一会儿才会出字(7s-10s), 有什么地方需要调整的吗?
现在用的r1:1.5b和r1:7b, txt-embedding模型为bge-m3., rerank模型为硅基流动的 bge-reranker-v2-m3 (dify不支持ollamarerank模型)
知识库的召回率感觉不是很好, 需要注意什么配置吗