arch 在 强制ChatGPT自我辩论,幻觉减少110% --- 递归元认知 中发帖
递归语言模型这篇论文挺有意思。
核心思路很简单:
让模型对自己的输出做递归式的自我检查和修正——先生成回答,再自我批判"这个对吗?有没有漏的?",然后迭代优化。
实测下来,在数学、代码这类有明确对错的任务上,准确率提升很明显,幻觉大幅减少。
本质上就是把人类"写完再检查一遍"的习惯工程化了。方法零成本,不改模型,纯靠 prompt 驱动,值得在日常开发中直接用起来。
[image]