Josen (@josenlou)关于AI出现幻觉我目前看到的几个方案 中发帖

关于AI出现幻觉 
我个人认为是因为长文本对话中模型没办法完全记住所有对话(哪怕现在各模型的Context Window都有所增加)
所以去找了几个方案来跟大家聊聊
目前几个解决方案如下
1.超长文本LLM:每次对话都去review当前所有文本,但代价就是较慢的回应速度跟超贵的API token调用费用
例如claude好像就是这一类(还有 Gemini 3 Pro?)
2.循环神经网络(RNN)和状态空间模型(SSM):将上下文分成多个段落进行总结,可以单纯调用某段文本
3.回归语言模型(google称是RLM,清华这边是说CALM):将系统分成root LM(数据库)跟次级的LM,
在询问问题时透过次级LM去查询root LM,然后验证答案(这一点好像跟第二个方案很像?)
关于这个MIT有篇文章有更深刻的解释,透过RLM的调整GPT5能够在OOLONG的长文本测试下降低...