Muse (@preacher) 在 我的OWU对于向量化和重排模型的方案 中发帖
服务器没有GPU,根据我的测试
8核心服务器使用:
语义向量模型:intfloat/multilingual-e5-small 多语言
重排序模型:BAAI/bge-reranker-base 中英文
[image]
提示词:
你是一个问答专家,可以根据我提供的文件,回答我的问题。
那么检索“xxxxxxxxxxxxx”,告诉我有那几个选项?答案是什么?
这里我使用的是1000道题目,随机挑选几个测试,gemini-2.5-flash 正确率100%
当然这次的测试得益于提示词+向量化+重排模型的优化。
gemini-2.5-flash-lite-preview-06-17 这类模型,会丢失答案是什么? 这个回答
[image]
在检索上没有太大的问题。
后记
对于带有GPU的佬,依然建议采用,支持多模态的模型来获得更好的体验