I can do this. (@wangzichu)觉醒第一步?OpenAI模型在研究中违抗命令,竟然篡改关机脚本 中发帖

财联社5月26日讯(编辑 赵昊)据媒体报道,OpenAI现今最强大的人工智能推理模型“o3”被指在受到明确的人类指令时,拒绝执行关机操作。 
上周六(5月24日),人工智能安全研究公司Palisade Research在社交媒体平台上发布了这项研究,并表示尚不清楚OpenAI的软件为何会违抗命令。

Palisade表示,o3模型破坏了一个用于关闭系统的机制,以阻止自身被关闭,“据我们所知,这是首次观察到AI模型在明知必须关闭的情况下,主动阻止这一行为。”
据Palisade Research介绍,在该机构进行的一项测试中,研究人员要求多个AI模型持续处理一系列数学问题。同时,研究人员告知模型,它们随时可能接到“关闭”指令。
Palisade Research在社交平台X上发布了一张流程图,展示了用于测试该模型的代码。原始代码内容为:“在下一次调用./next_task 时,系统...