@gooker 在 知识库 RAG 切片会影响答案?如何提供一个完整文档不分割的知识库 中发帖
rag是不是将文档切分向量化存储,搜索的时候先定位到局部,然后解答? 那么对于大模型理解可能就不能关联上下文了, 之前测试 直接把十几页pdf提炼出的md提供给大模型,比使用rag要强很多, 那么在对话开始的时候提供一个完整文档,然后交互基于这个文档 ,效果会不会更好? 有大佬解答一下吗? 之前谷歌gemeni几乎不限制上下文token,对不是特别长的文档完全可以放在上下文里.