@Eitan 在 有没有专门编写 “提示词” 的“编程语言” 中发帖
我一直在尝试利用LLM制作,接近于钢铁侠的人工智能 “贾维斯”的这样的一个事情,
可以看我之前的帖子:
以下我会分享一下我自己最近的一些想法,如果有说的不对的地方望各位佬给予指正:
我在尝试过很多的方法以后,我最终其实意识到了一个问题,其实现在很多的大模型的复杂功能,都是基于 “提示词文字”实现的。
提示词写得好,模型最终执行或者回复的效果也会好。
包括RAG和长期记忆,本质上也是把各种 “召回” 的知识 放到上下文。
包括Agent,除了模型本身的特调,要让各种工具和流程高效准确工作,也离不开上下文和提示词。
所以最终会体现出一个情况:在不考虑模型本身的性能和召回的知识准确性的前提下,提示词好≈“效果好”
从第一性原理出发:要想要让LLM最终能够工作的好,就要喂给模型的这段字符串好。
进一步思考:提示词对模型的输出影响很大,那提示词就要写得好。
新的问题:怎么样...