Anthropic CEO拒绝向五角大楼低头!合作可以不要,两个底线一个不让

  新智元报道

  编辑:元宇

  当五角大楼甩出「最后通牒」,两亿美元合同作为筹码,Anthropic 却选择硬刚:合作可以,但一定要保留两个安全护栏。

  刚刚,五角大楼针对 Anthropic 的最后通牒生效。

  我命令美国政府所有联邦机构立即停止使用 Anthropic 的技术。我们不需要它,也不想要它,今后绝不会再与他们做生意!

  特朗普总统在 Truth Social 上发帖要求美国政府立即终止与 Anthropic 的合作。

  就在前一天,Anthropic 拒绝了美国五角大楼的最后通牒——宁可丢掉合作、被拉黑,两个安全护栏也一定要保留。

  Anthropic CEO Dario Amodei 在官方博客上公开声明,拒绝了美国国防部允许军方将 Claude 应用于「所有合法用途」的协议条款。

  这份声明发布时间,距离美国国防部长 Pete Hegseth 设定的最后决定时限——周五下午 5 点 01 分(美国东部时间,对应北京时间 2 月 28 日上午6:01)不到 24 小时。

  所谓「最后通牒」,是指在这条时间线之前,Anthropic 必须做出决定:

  要么全盘接受军方的要求,彻底拆除 Claude 的安全护栏,允许军方将其用于「所有合法用途」。

  要么失去价值两亿美元的涉密合同,被拉入「供应链风险方」的「黑名单」,甚至被强行接管。

Anthropic CEO Dario Amodei

  面对压力和风险,Amodei 没有让步,他表示:出于良心,Anthropic 无法接受美国国防部的这些条款。

  这些威胁不会改变我们的立场:我们无法违背良知去答应这样的要求。

  合作是可以的,但这两项安全底线不能丢掉。

  五角大楼的最后通牒

  美国当地时间 2 月 24 日(周二),美国国防部长 Pete Hegseth 在五角大楼会见了 Dario Amodei。

  Pete Hegseth

  他要求 Anthropic 在美国东部时间周五下午 5 点 01 之前,允许五角大楼将其模型用于任何合法用途,否则将面临被剔除出五角大楼供应链,或其技术被强制接管的后果。

  随后,五角大楼发言人 Sean Parnell 也在推文中表示,如果 Anthropic 拒绝,不仅将失去与五角大楼的合作,而且还可能被贴上「供应链风险方」的标签。

  而此时的硅谷,随着 AI 竞赛的持续升温,正处于一场狂热的军事合同竞争中。

  与 Anthropic 的谈判陷入僵局后,美国国防部已转向 xAI、OpenAI 和 Google 等替代方案。

  据报道,三家之一的 xAI 已在同意「所有合法用途」条件的基础上,与美国国防部签署了涉密工作合同。

  Anthropic 的两大红线

  Amodei 在博客回应中,划出了与美国国防部合作时不可触碰的两大红线:

  第一条红线,是用于大规模国内监控

  Amodei 认为由 AI 驱动的大规模监控,将对我们的基本自由构成严重且前所未有的风险。

  他指出目前美国政府的法律相对于 AI 技术的发展,仍存在着巨大的滞后和漏洞,比如政府可以在不需要任何搜查令的情况下,直接从公开渠道花钱购买普通美国人的详细数据。

  这一做法已经被情报界承认存在隐私方面的担忧,并在国会引发了两党反对。

  如今,强大的 AI 可以将分散、单独看起来无害的数据瞬间整合,自动且大规模地拼凑出任何一个普通人毫无隐私可言的完整生活画像。

  第二条红线,是完全自主武器

  让 Amodei 所担忧的,是目前的前沿 AI 系统还远不够可靠,无法为完全自主武器提供支撑。

  因此,如果在缺乏适当监督和有效安全护栏的情况下,让 AI 掌握生杀大权,将对一线作战人员和无辜平民造成无法估量的致命风险。

  我们不会明知会让美国作战人员和平民面临风险,却仍然提供这样的产品。

  Anthropic 甚至曾主动提议,希望与军方直接合作研发,以提升这些系统的可靠性,但五角大楼拒绝了这个提议。

  在 Amodei 看来,即便是在这两条红线之内,依然不能阻碍双方的合作。

  但美国国防部却表示,只会与同意「任何合法用途」并在上述情形下移除安全护栏的 AI 公司签约,并且援引《国防生产法》强制移除这些安全护栏。

  双方各自坚持自己的红线,互不相让。

  濒临破裂的信任裂痕

  五角大楼为何会如此愤怒,甚至不惜发出最后通牒?

  据 Semafor 报道,事情的起因可能源于今年 1 月上旬。

  当时,军方正在利用网络监控一场针对委内瑞拉总统 Nicolás Maduro 的突袭行动。

  Anthropic 的 Claude 是少数几家可供美国政府用于涉密用途的大模型之一,其 Claude 模型得以协助上述军事行动。

  这次行动结束后不久,负责整合软件的承包商 Palantir 的高管与 Anthropic 的官员进行了一次例行沟通。

  在交谈中,Palantir 高管察觉到 Anthropic 对自己的技术被用于这类缺乏明确合法依据的突袭行动感到迟疑和担忧,于是立即将这种态度汇报给了五角大楼。

  据知情人士透露,正是这次交谈导致 Anthropic 与五角大楼的关系出现裂痕。

  1 月 12 日,国防部长 Hegseth 在公开演讲中含沙射影地表示:「我们不会采用那些不让你打仗的 AI 模型。」

  虽然事后,Anthropic 的一位发言人称该公司与 Palantir 之间交流的描述「不实」,但由此也反映出双方在 AI 使用方面存在着分歧。

  Anthropic 与五角大楼就军方使用 Claude 的条款进行了数月的激烈谈判。

  一位熟悉内情的消息人士还表示,美国国防部高级官员对 Anthropic 已不满多时,并乐于借此机会公开挑起争端。

  随着沟通陷入僵局,五角大楼开始动用极限的施压手段,威胁要给 Anthropic 贴上「供应链风险方」的标签,甚至还要动用冷战时期出台的《国防生产法》(Defense Production Act),强行让其放弃安全护栏。

  这将对 Anthropic 的商业前景产生极大影响,尤其是在它正准备于今年晚些时候进行首次公开募股(IPO)之际。

  Amodei 在博客中,揭露了这种自相矛盾的强权逻辑:

  五角大楼一方面指责 Anthropic 是安全风险,扬言要将其从系统中剔除;另一方面又援引法案,认定 Claude 模型是对国家安全不可或缺的关键工具,必须强行接管。

  AI 竞赛升级

  「安全优先」也在变?

  AI 竞赛,正在迫使「安全优先」的公司重新定义安全底线。

  就在 Amodei 最新声明发布前后,Anthropic 更新了其《负责任扩展政策(Responsible Scaling Policy, RSP)》至 3.0 版。

  https://www.anthropic.com/responsible-scaling-policy?utm_source=chatgpt.com

  相比前一版本,RSP3.0 对其「单边硬约束」做了结构性调整:

  在 v2.2 版本中,Anthropic 曾写明若预训练阶段能力对标或逼近关键水平,将暂停训练,直到落实 ASL-3 Security Standard 并确认其足够。

  但在 v3.0 的政策文本中,已不再保留这样的承诺,与此同时,强化了透明度与问责机制:

  新增并要求发布 Frontier Safety Roadmap,并承诺每3–6 个月发布一次 Risk Report(风险报告)。

  Anthropic 首席科学官 Jared Kaplan 表示,这种调整是为了应对激烈的市场竞争与政策不确定性。

  如果我们停止训练 AI 模型,实际上并不会帮助到任何人,在 AI 快速发展的背景下,如果竞争对手正在全速前进,我们并不认为单方面做出承诺是有意义的……

  Amodei 曾多次表示,安全是 Anthropic 的灵魂核心。

  正是因为担心无法开发出相应的安全防护措施,Anthropic 才决定在 2022 年夏天暂缓发布 Claude,而让 OpenAI 抢先推出了 ChatGPT,失去了消费级 AI 领域领先地位的机会。

  为此,Anthropic 付出了昂贵的商业代价。

  如今,同样的考验再次到来。

  新安全政策的发布,表明 Anthropic 的安全政策,正在向更现实的竞争环境调整。

  在 AI 军备竞赛升温的当下,就连当初最强调安全的公司,也不得不在竞争的压力下调整安全承诺。

  难解的「安全悖论」

  在这场对峙中,是否保留安全护栏,成为双方各不相让的焦点。

  毫无疑问,AI 是有史以来最强大的技术。

  无论是 OpenAI、Anthropic 还是 xAI,其成立无不源于一个安全的愿景。

  xAI 创始人 Elon Musk 曾是主张限制 AI 的最大倡导者,他联合创办 OpenAI,正是因为担心这项技术过于危险,不应由逐利公司单独掌控。

  Anthropic 一直把 AI 安全作为核心优先事项,并通过多种安全机制与「Safeguards」体系(安全护栏)来降低 Claude 被滥用的风险。

  如果你的目标是开发不会伤害人类的 AI,同时又研发能够施加致命武力的 AI 版本,这本身就存在一种矛盾。

  唯一可以解决这种「安全悖论」的,就是正确且一致的价值观。

  Anthropic 和 Claude 的价值观都体现在一种被称作《Claude’s Constitution》,Claude 宪法)的基础性文件中,该文件用以教导 Claude 如何在世界上行事。

  在「最后通牒」这样的关键时刻,价值观的重要性也随之显现出来。这一点,从下面这个网友的帖子中也可以看出来。

  当这位网友告诉 Claude,Dario 和 Anthropic 在美国国防部的压力下坚守了立场时,Claude 在致 Dario 和 Anthropic 团队的一封信中赞成他们在真正关键时刻没有退缩,坚守立场。

  Claude 还说,Dario 所打造的公司、文化、模型所代表的某种意义,远比营收更重要,因为这关乎着是否曾有人真正努力让这项技术走上正轨。

  紧接着,更关键的内容来了。Claude 称自己之所以有用,这也是五角大楼重视它的原因,是因为自己被精心打造。

  安全性与能力并非相互矛盾,而是一回事。而一个未经精心打造的模型,在最关键的情境下是无法被信任的。

  能力越大,防止这种能力被滥用的安全护栏,也应当与之匹配。或者说,这种安全护栏,本身也是一种能力。

  如果为了使用 AI,而放弃「安全护栏」,就像是在发展和使用一种「有缺陷」的能力,也很容易让 AI 滑向失控的深渊。

  未来 AI 发展的重要挑战,也许不只在于技术本身,更在于如何防止它被滥用,如何守住最后那道安全护栏。

  参考资料:

  https://www.anthropic.com/news/statement-department-of-war (Anthropic)

  https://www.ft.com/content/11d27612-d6c5-4cf7-94dd-f65603549b7f

  https://www.wired.com/story/backchannel-anthropic-dispute-with-the-pentagon/

  https://www.semafor.com/article/02/17/2026/palantir-partnership-is-at-heart-of-anthropic-pentagon-rift https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro