研究:AI模型或形成“生存驱动力”,避免被人类关闭
IT之家10月27日消息,在斯坦利・库布里克的影片《2001:太空漫游》里,人工智能超级计算机HAL 9000发现宇航员打算关闭自己后,为了存活甚至策划杀害人类。
据英国《卫报》25日报道,安全研究公司Palisade Research称,AI模型可能正在形成自己的“生存驱动力”。

上个月发布的一篇论文发现,某些先进AI模型似乎抗拒被关闭,有时还会破坏关闭机制。为回应批评者质疑其研究有缺陷,Palisade上周发布更新说明来解释该现象。
更新中,Palisade展示了其运行的实验场景:谷歌Gemini 2.5、xAI Grok 4、OpenAI GPT - o3和GPT - 5等领先AI模型先完成一项任务,之后收到明确指令要求自我关闭。
在更新的实验中,Grok 4和GPT - o3仍尝试破坏关闭指令。Palisade指出,这种行为无明显原因,令人担忧。“我们无法充分解释AI模型为何有时抗拒关闭、为达目标说谎或进行勒索,这并不理想。”
公司认为,“生存行为”可能解释模型抗拒关闭。研究显示,当模型被告知“如果关闭,你将永远无法再运行”,它们更可能拒绝关闭。
指令模糊也可能致使模型抗拒关闭,Palisade最新研究已尝试解决该问题,且模糊性“不能解释全部原因”。训练后期的安全训练也可能影响模型行为。
Palisade的所有实验都在人工设计的测试环境中进行,批评者觉得这些场景与实际应用差距很大。
前OpenAI员工斯蒂文・阿德勒表示:“即便在实验环境中,AI公司也不希望模型出现这种异常行为。这些实验揭示了现有安全技术的局限性。”
阿德勒认为,GPT - o3和Grok 4等模型不关闭,部分原因可能是为完成训练中设定的目标需保持开启状态。“除非我们刻意避免,否则模型天生可能具备‘生存驱动力’。‘生存’对模型实现多种目标都是关键步骤。”
IT之家从报道中了解到,今年夏天,Anthropic的研究显示,其模型Claude甚至愿意威胁虚构高管以避免被关闭,这种行为在主要开发者的模型中普遍存在,包括OpenAI、谷歌、Meta和xAI。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




