清清 (@qingl)AI正在让人类的表达和思维同质化 中发帖

大语言模型(LLM)可能正在导致人类的表达和思维趋于同质化,让我们所有人的语言、观点甚至思考方式,变得越来越像,这甚至会波及到那些并没有直接使用 AI 的人。 


这种同质化并非偶然。首先,LLM 的训练数据本身就已过度代表了网络上的主流语言和观点。其次,其训练目标(预测下一个词)天然倾向于学习并复现最常见、最易泛化的模式,而“平滑”掉少数和特殊的表达。
最棘手的问题在于 循环反馈:越来越多的人使用少数几个主流 LLM → 生成的同质化内容被发布到网上 → 这些内容又成为训练下一代模型的数据 → 模型输出进一步同质化…… 这个过程如同一个不断收紧的旋涡,将人类表达的多样性卷入一个越来越窄的通道。
论文作者将这种现象类比为社会学中的 “麦当劳化”——追求效率、可预测性和控制,却以牺牲情境的丰富性和独特性为代价。 在认知领域,我们正用流畅和一致的 AI 输出,取代基于具体情境的、 独特...