@yi124773651 在 我对ai的认识和ai对我认知的改造 中发帖
看了这两位佬友的帖子,并结合我最近的阅读,我加深了对“LLM的本质是对下一个token的预测”的认识,并有强烈的表达的冲动。
你的提问被拆分成高维向量,然后经过多层神经网络不断收敛,实际上就是在找你输入的句子在高维空间距离更近的回复,因此你要求ai扮演一位专家,专家这个词实际上在学术文献中并不常出现,而是一个大众的表达,同时ai为扮演专家这个角色有了多余的消耗。因此,你想要提高ai回复的质量,你自己的提问需要更专业、更精确、更接近你自己的实际情况,你得到的答案才会更精准;相反,就算你用了别人高质量的提问词,你不知道为什么要这样提问,有很大可能,你对高质量的回复的接收程度也不够。
另外一位佬友的帖子谈及对harness engineering的认识,我十分认同,也从另外一个角度印证了LLM的本质。我们用agent编程时要将自己当作掌控者,harness的原意也就是驾驭。更加鲜明的形...