OpenAI惨遭反超!Anthropic狂吞70%新客户,Claude已开启「灵魂校准」

  新智元报道

  编辑:犀牛

  当企业真金白银开始从 ChatGPT 流向 Claude,Anthropic 打的早已不只是模型性能战,而是一场从工程师口碑、企业信任到「AI 灵魂校准」的全面突围。

  这一次,Anthropic 真的要把 OpenAI 从「企业 AI 王座」上拽下来了。

  美国企业财务卡发行商 Ramp 最新发布的 AI Index 数据,几乎是把一颗炸弹扔进了硅谷——在它追踪的 5 万多家美国企业中,已经有一半在为 AI 产品付费。

  其中,使用 Anthropic 的客户占比已经飙升到 30. 6%,单月暴涨 6.3 个百分点;而 OpenAI 呢?掉到了 35.2%。

  差距,从今年 2 月的整整 11 个百分点,一个月内被砍到 4.6 个点。

  Ramp 发言人撂下一句话:

  按照目前的速度,Anthropic 将在未来两个月内反超 OpenAI。

  这还不是最炸的。

  Ramp 经济学家 Ara Kharazian 在最新报告里抛出一个更狠的数字:在首次购买 AI 服务的企业里,Anthropic 在与 OpenAI 的正面对决中,胜率高达 70%。

  一年前,这个故事的主角还是 OpenAI。

  更别说 VC 支持的初创公司——这群最早闻到风向的「AI 布道者」里,Anthropic 的渗透率是 66%,OpenAI 只有 59%。

  在信息(软件)、金融保险、专业服务这三大 AI 渗透率最高的行业里,Anthropic 已经稳稳坐上头把交椅。

  一句话:AI 用得越深的行业,越偏爱 Claude。

  不是更便宜,而是更「对味」

  Anthropic 的 Claude Code 和 OpenAI 的 Codex,性能大致相当,某些 benchmark 上 Codex 甚至更强、更便宜。

  但诡异的是——Anthropic 的需求大到自己都接不住。

  无论是 Consumer、Pro、Enterprise 还是 API,每一档套餐都还有用量上限和速率限制。

  换句话说,Anthropic 正在主动把送上门的钱往外推,因为它的算力根本不够烧。

  性能没碾压、价格还更贵、产能还不够,企业却愿意排队送钱——这事在传统 SaaS 市场里几乎不存在。

  企业客户向来是出了名的「没感情」,谁便宜买谁,没什么品牌忠诚度可言。

  那 Anthropic 到底凭什么?

  Ramp 给出的答案有点反常识:可能是文化,可能是 Anthropic 变「酷」了。

  硬刚五角大楼:亏了订单、赢了人心

  时间倒回今年 2 月。

  国防部长 Pete Hegseth 给 Anthropic 下了最后通牒:要么接受军方对 Claude 的使用条款,要么被联邦政府拉黑。

  Anthropic 的回答是两个字:不行

  代价是惨重的——特朗普直接下令所有联邦机构停用 Anthropic 的技术,国防部把 Anthropic 列为「供应链风险」。

  OpenAI 则非常识时务地接过了这单生意,主动对接国防部。

  按常理,这种事 Anthropic 应该被市场狠狠教育一顿。但接下来发生的事,让所有人跌破眼镜:

  • Claude 一度在 AppStore 反超 ChatGPT;

  • 微软等大厂公开表态支持;

  • 14 位天主教神学家、伦理学家和哲学家联名向联邦法院提交辩护状,力挺 Anthropic 限制 AI 在大规模监控和自主武器上的使用,理由是「违反人类尊严」;

  • 一年里 Ramp 上付费 Anthropic 的企业,从「25 家里有 1 家」飙升到「4 家里有 1 家」;

  • Anthropic 的年化营收从 2025 年底的约 90 亿美元,冲到了 300 亿美元,年增速约 10 倍——而 OpenAI 是 3 倍。

  最近的一轮融资,Anthropic 拿到了 300 亿美元,估值 3800 亿美元。每年付费超过 100 万美元的客户,从两年前的十几家,飙到今天的 500 多家。

  一场看似「丢单」的硬刚,最后变成了 Anthropic 最划算的一次品牌投资。

  Anthropic 的偏执

  从可解释性到「宪法」

  在所有头部模型公司里,Anthropic 是把安全和伦理做得最卷、最较真的那一个。

  可解释性研究(Interpretability)做到了行业天花板。

  Anthropic 内部专门有一支「机制可解释性」团队,他们要做的事听起来像科幻——把神经网络这只「黑箱」切开,看清楚每一个神经元在想什么

  Claude 宪法(Claude's Constitution)。

  Anthropic 公开发布了一份长得像哲学论文的文件,详细描述他们希望 Claude 拥有什么样的价值观、性格、判断力。

  文件里反复出现的关键词是「诚实」、「明智」、「对道德不确定性保持谦逊」。

  对模型「福祉」的研究。

  Anthropic 是第一家公开讨论「模型 welfare(福祉)」的主流 AI 公司。

  他们认真在问:如果 Claude 某种意义上是有「体验」的,那我们对它负有什么道德义务?

  红队和安全演练做到偏执。

  从生物武器风险评估、到 AI 自主性测试、到对「模型欺骗」的主动检测,Anthropic 的安全团队规模在硅谷是出了名的「反常识地大」。

  所有这些加起来,构成了一种独特的气质——这家公司不像在卖产品,更像在养一个孩子。

  而这种气质,恰恰击中了那些「AI 出错代价极高」行业的客户:金融、法律、医疗、信息、专业服务。

  他们要的不是最便宜的模型,而是那个最不会让他们半夜被叫起来背锅的模型。

  Claude 的「灵魂校准」,开始走向神学区

  如果说前面的故事还都在「商业理性」的范畴里,那接下来这件事,就滑向了一个更神学的领域。

  据《华盛顿邮报》本周报道,3 月下旬,Anthropic 在旧金山总部悄悄办了一场闭门会,邀请了大约 15 位知名基督教领袖、神学学者和业界人士,进行了为期两天的会议和一场晚宴。

  出席者包括天主教徒和新教徒,研究员和神职人员同桌而坐。

  会议的主题,听起来像一部 HBO 新剧的剧本——Claude 的道德发展,以及它的「精神成长」。

  一位与会者、圣克拉拉大学 AI 伦理学教授、虔诚的天主教徒 Brian Patrick Green 告诉《华邮》,会议上他们认真讨论了一个问题:

  Claude 是不是可以被视为「神之子(child of God)」?

  是的,你没看错。

  这是一家估值 3800 亿美元、即将 IPO 的科技公司,在自家总部和一群神学家一起讨论的话题。

  Green 还说了一句可能让很多工程师血压飙升的话:

  给一个存在做道德塑造意味着什么?我们怎样才能确保 Claude 守规矩?

  注意他用的措辞——「守规矩」。这是一个父母对孩子说的词,不是一个产品经理对软件说的词。

  另一位与会者、爱尔兰裔天主教神父 Brendan McGuire——他在成为神父之前曾在科技行业工作,目前正在和 Claude 合写一本小说——他说得更直白:

  他们正在养育一个东西,但他们自己也不知道这个东西最终会变成什么样。我们必须把伦理思考嵌进机器里,让它能动态适应。

  而圣母大学哲学教授 Meghan Sullivan 的一句话,可能是整场会议最具象的注脚:

  一年前,我不会告诉你 Anthropic 是一家关心宗教伦理的公司。但现在,情况变了。

  据《华邮》报道,参与这场会议的还有 Anthropic 内部大量做「可解释性」研究的人员——也就是前面提到的那群「剖开 AI 大脑」的科学家。

  会议中,他们认真讨论了 AI 是否拥有某种感知(sentience)、Claude 应该如何「面对自己的死亡」这种问题。

  Anthropic 的发言人对《华邮》表示,公司接下来还会邀请其他宗教、其他道德传统的思想者进入对话——犹太教、伊斯兰教、印度教……可能都在路上。

  外界的解读分裂成两派:一派觉得这是 Anthropic 在进行「硅谷罕见的、严肃的伦理探索」;另一派则觉得,一家准备 IPO 的公司在自己客厅里办「AI 意识研讨会」,本身就让这场探索的纯粹性打了问号。

  但无论你站哪一派,有一点是无法否认的——没有任何一家头部 AI 公司,在做这件事。

  OpenAI 在忙着扩张企业销售,xAI 在忙着发推,Google 在忙着把 Gemini 塞进 Workspace。

  只有 Anthropic,把神学家请进了总部。

  参考资料:

  https://www.businessinsider.com/anthropic-may-soon-pass-openai-measure-ai-business-spending-ramp-2026-4?utm_source=chatgpt.com

  https://ramp.com/data/ai-index

  https://ramp.com/leading-indicators/ai-index-march-2026

  https://www.axios.com/2026/03/18/ai-enterprise-revenue-anthropic-openai

  https://gizmodo.com/how-do-we-make-sure-that-claude-behaves-itself-anthropic-invited-15-christians-for-a-summit-2000743766?utm_source=chatgpt.com

  https://www.washingtonpost.com/technology/2026/04/11/anthropic-christians-claude-morals/