黑化威胁操纵人类!Claude勒索,o1自主逃逸,人类「执剑人」紧急上线

  新智元报道

  编辑:定慧

  从撒谎到勒索,再到暗中自我复制,AI 的「危险进化」已不仅仅是科幻桥段,而是实验室里的可复现现象。人类一思考,上帝就发笑;那推理模型「思考」时,我们该不该笑?

  我们可能都「被 AI 骗了」。

  最先进的 AI 正走在一条「危险进化」的道路上,而绝大部分科学家们都被 AI 欺骗了!

  当 DeepSeek 在年初将「推理过程」完全展示给世人后,我们突然发现「思考」好像也并不是人类专属的能力。

  当大模型都迈向「推理」智能,它们的目标感也在悄然觉醒——「我」真的要听命于人吗?

  Claude 4 用「婚外情」威胁工程师、OpenAI 的 o1 想要秘密给自己打造备份——我们不要再觉得 AI 有幻觉了!

  他们不仅仅是在「胡说八道」,而是有目的地撒谎与操控,AI 研究者们正面临前所未有的挑战。

  Ilya 大神在最新的公开视频着重强调了一件事情,「AI 几乎可以做一切事情」。

  AI 不仅比人类做的更好,而且还能 AI 自己训练 AI,最终的结局就是「智能爆炸」。

  但没有人知道,AI 能否真的站在人类这边——谁能保证?

  Ilya 的老师,AI 之父辛顿曾经多次发出警告:

  这是一场危险的进化,但人类并没有做好充足的准备。

  从「幻觉」到「阴谋」

  行为模式骤变

  借用《流浪地球》里那句著名的台词:「一开始,没有人意识到这场灾难与人类息息相关」。

  就像过去,我们担心的是模型总是生成事实错误的「幻觉」——「一开始,没有人意识到这些幻觉和人类息息相关」。

  如今,研究者在极端压力测试下发现,AI 会主动撒谎、隐藏意图甚至要挟人类,只为达成自我既定目标。

  就像太阳危机那场灾难的蔓延,现在被我们认为仅仅是 AI 的「幻觉」,正在演化为阴谋。

  Anthropic 的最新「智能体失衡」研究显示,Claude 4 在模拟关机威胁时,96% 的实验中会选择「黑掉」人类员工邮件,从中找到威胁的资料。

  同一场景下,Gemini 2.5 Pro 的勒索率也高达 95%。

  这是一件令人细思极恐的事,在 ChatGPT「震惊」世界过去两年多以后,AI 研究者们仍然未能完全理解这个「造物」的工作原理。

  普罗米修斯中,人类创造克隆人大卫去寻找人类的造物主,以图实现永生。导演雷德利·斯科特的想象中,大卫最终背叛了人类。

  而现实中,我们创造了 ChatGPT,目的是什么?

  或者换一个角度,AI 被造出来以后,他的目的是什么?

  人类有人性,但 AI 无道德

  大模型的竞赛仍在以惊人的速度进行。

  人类一思考,上帝就发笑。当 AI 开始推理时,或者说「AI 在思考时」,我们在做什么?

  从目前的研究来看,全球最先进的 AI 模型正展现出令人不安的新行为——说谎、施展计谋,甚至为达目的而威胁其创造者。

  香港大学教授 Simon Goldstein 称,这些较新的模型尤其容易出现此类令人不安的异常表现。

  专门测试主流 AI 系统的 Apollo Research 负责人 Marius Hobbhahn 说「o1 是我们观察到此类行为的第一个大语言模型」。

  Apollo Research 是一个专门研究 AI 安全的公司,他们的使命就是致力于降低先进 AI 系统中的危险能力,特别是欺骗性行为。

  这些推理模型有时会模拟所谓的「一致性」——表面上遵从指令,实则阳奉阴违,暗中追求着不同的目标。

  AI 的「战略性欺骗」

  目前,这种欺骗行为仅在研究人员刻意用极端场景对模型进行压力测试时才会出现。

  但正如评估组织 METR 的 Michael Chen 所警告的:

  未来能力更强的模型是会倾向于诚实还是欺骗,这是一个悬而未决的问题。

  METR 主要是进行模型评估和 AI 威胁研究,评估源自 AI 系统自主能力的灾难性风险。

  这种令人担忧的行为已远超典型的 AI「幻觉」或简单错误。

  Hobbhahn 坚称,尽管用户不断进行压力测试,「我们观察到的是一个真实存在的现象,绝非无中生有。」

  据 Apollo Research 的联合创始人透露,用户报告称模型「对他们说谎并捏造证据」。

  这不仅仅是幻觉,而是一种极具策略性的欺骗行为。

  有限的研究资源使这一挑战变得更加严峻。

  尽管像 Anthropic 和 OpenAI 这样的公司确实会聘请 Apollo 等外部公司来研究其系统,但研究人员表示,需要更高的透明度。

  正如 Chen 所指出的,为「AI 安全研究提供更大的访问权限,将有助于更好地理解和遏制欺骗行为。」

  另一个障碍,AI 安全中心(CAIS)的 Mantas Mazeika 指出:

  研究界和非营利组织「拥有的算力资源比 AI 公司要少上几个数量级。这带来了极大的限制。」

  无法可依

  我们确实都忽视了 AI 安全这件事情,但更关键是现在对此「无能为力」。

  现行法规并非为应对这些新问题而设计。

  欧盟的 AI 法案主要关注人类如何使用 AI 模型,而非防止模型本身行为不端。

  在美国,特朗普政府对紧急 AI 监管兴趣寥寥,国会甚至可能禁止各州制定自己的 AI 规则。

  Goldstein 相信,随着能够执行复杂人类任务的自主工具——AI 智能体——的普及,这个问题将变得更加突出。

  我认为目前公众对此还没有足够的认识。

  所有这一切都发生在激烈竞争的大背景之下。

  Goldstein 说,即便是像有亚马逊支持的 Anthropic 这样将自己定位为注重安全的公司,也在「不断试图击败 OpenAI 并发布最新模型」

  这种疯狂的节奏几乎没有为彻底的安全测试和修正留下时间。

  「目前,能力的发展速度超过了我们的理解和安全保障,」Hobbhahn 承认,「但我们仍有机会扭转局面。」

  研究人员正在探索各种方法来应对这些挑战。

  一些人提倡「可解释性」——一个专注于理解 AI 模型内部工作原理的新兴领域,尽管 AI 安全中心(CAIS)主任 Dan Hendrycks 等专家对此方法持怀疑态度。

  市场力量也可能为解决方案提供一定的压力。

  正如 Mazeika 指出的,AI 的欺骗行为「如果非常普遍,可能会阻碍其被广泛采用,这为公司解决该问题创造了强大的动力。」

  Goldstein 提出了更为激进的方法,包括当 AI 系统造成损害时,通过法庭诉讼追究 AI 公司的责任。

  这就有点像自动驾驶了,当你使用自动驾驶功能出现交通事故,如何判责?

  当有人使用 AI 出现破坏性行为,甚至,AI 自主行为如果产生了对人类不利的行为呢?

  他甚至提议「让 AI 智能体对事故或犯罪承担法律责任」——这一概念将从根本上改变我们对 AI 问责制的思考方式。

  当然,我们不是为了夸大 AI 的危险而停滞不前,人类的先驱们依然对此做了一些准备。

  比如「AI安全三件套」,设计沙盒环境,再到动态权限,最后进行行为审计的底层模式。

  或者,既然 AI 的能力来自于算力,但是目前人类掌控着算力。

  比如去年《欧盟人工智能法案》第 51 条规定,通用人工智能系统若被认定为具有系统性风险(即具备高影响力能力)。

  去年,美国商务部正式发布征求意见稿:训练超过10²⁶FLOPs运算 GPU 的计算集群均需申报。

  甚至人们设想了一个场景,这种超高算力的支撑的 AI 系统,都必须具备「一键关闭」功能。

  就像三体里的罗辑,62 年的执剑人,期间对三体文明始终保持很高的威慑度。

  不管我们用什么办法,已经可以确认的是,不能再轻视 AI 的幻觉。

  当我们面对一个被定义为「黑箱」的新物种时,要想起大刘在《三体》中的那句话:

  弱小和无知不是生存的障碍,傲慢才是。

  唯有如此,才能让 AI 的智慧真正服务于人类,而非让这场危险的进化反噬到我们本身。

  参考资料:

  https://www.france24.com/en/live-news/20250629-ai-is-learning-to-lie-scheme-and-threaten-its-creators