Anthropic登上时代封面!内部曝猛料:AI递归自我改进,或在一年内发生

  新智元报道

  编辑:Aeneas 定慧

  今天,Anthropic 登上时代封面了。他们承认:内部已观察到「递归自我改进」的早期迹象,完全自动化的 AI 研究,可能在一年内就能实现!

  ASI 时代,Anthropic 是真正的独领风骚。

  就在刚刚,Anthropic 登上《时代》周刊封面,被评为世界上最具颠覆性的公司。

  如今引爆全球的龙虾智能体狂潮,正是由 Claude Code 作为火苗,由 OpenClaw 引爆。Anthropic 当得起这一称号。

  而且这篇文章中,还有不少重磅的内幕爆料。种种信息传递出:AI 递归自我提升的时代,或将提前到来。

  《时代》的这篇文章中,甚至有一个更炸裂的判断:完全自动化的AI研究,可能在一年内实现!

  而且就在今天,Anthropic 自己又官宣成立了一个全新的研究所。

  这个研究所,由 30 人内部智库组建成立,直接研究 AI 怎么冲击社会,因为 Anthropic 已经预见到,接下来 AI 将对整个世界造成摧枯拉朽的影响。

  在这个公告中,Anthropic 给出这样一个关键预测:在未来两年内,AI 能力将出现更加剧烈的进步!

  Anthropic 表示,公司在成立前两年就推出了第一商业模型,随后三年开发出能自我加速 AI 研发本身的系统,用金融界的术语来形容,这是一种复利式增长

  这两件事放在一起看,你就会解读出一个危险的信号——

  AI 正在学会自我改进。而且这件事发生的速度,比所有人预想的都要快。这不是科幻,这就是正在人类当下发生的事实!

  有趣的是,就在最近,马斯克转发了 Claude 参与伊朗空袭数百个目标选择的信息,锐评道:还有比 Anthropic 更虚伪的公司吗?

  别的不说,马斯克真是说了一句大实话。

  Anthropic 一手在打造越来越强大的 AI 系统,一手在成立研究所说我们要研究这些 AI 对社会的影响。既踩油门,又研究刹车的,全是他们。

  递归自我提升:那个曾经只存在于论文里的魔鬼

  先解释一个概念——递归自我提升(Recursive Self-Improvement)。

  这个词在 AI 领域一直是个传说,简单来说就是:AI 造出更好的 AI,更好的 AI 再造出更更好的 AI,如此循环,像滚雪球一样越滚越大。

  不过,几乎所有严肃的 AI 研究者都曾认为,这件事离我们很远,至少还要十年、二十年才会登场。

  《时代》周刊的封面文章里,白纸黑字地引用了 Anthropic 研究人员的话:他们已经观察到了递归自我提升的早期迹象。

  注意,不是理论推演,而是已经切实观察到的早期迹象。

  AI 变化的速度如此之快,以至于 Anthropic 联创兼首席科学官 Jared Kaplan 以及一些外部专家认为,完全自动化的 AI 研究,可能只需一年时间就能实现!

  如今,我们正站在什么样的时间节点上?让我们把散落的拼图拼在一起。

  第一块:AI 已经表现出递归自我提升的早期迹象,能够参与开发和改进 AI 系统本身。

  第二块:AI 研发速度正在从受限于人类工程师切换到受限于算力,意味着增长可能进入指数级模式。

  第三块:业内预测完全自动化的 AI 研究可能在一年内实现。

  第四块:Anthropic 预测未来两年 AI 能力将出现更加剧烈的突破,并以复利模型来描述这种增速。

  第五块:这家公司紧急成立了专门研究 AI 社会冲击的机构,由联合创始人亲自领军。

  这五块拼图放在一起,画面已经非常清晰了——

  我们可能正处在 AI 发展历史上最关键的拐点附近!

  被马斯克转发的一张图

  AI 悬崖边的公司

  25 年 2 月的一个夜晚,在美国加州圣克拉拉的一间酒店房间里,五个人围在一台笔记本电脑前,神情紧张。

  他们不是黑客,也不是军人,而是 Anthropic 的研究人员。

  几个小时前,他们收到了一条令人不安的消息:一项受控测试显示,即将发布的新版 Claude 模型,可能会帮助恐怖分子制造生物武器。

  这五人属于公司内部的「前沿红队」。他们的任务就是想象最坏的情况:网络攻击、生物安全威胁、甚至人类灭绝。

  收到预警后,他们冲回酒店房间,把床当作临时办公桌,开始分析测试数据。

  几个小时过去,他们仍然无法确定,这个模型究竟是否安全。最终,Anthropic 决定推迟发布 Claude 3.7 Sonnet 整整 10 天。

  红队队长 Logan Graham 形容说,这仿佛一个世纪那样漫长。

  那时,所有人就已经意识到:Anthropic 正站在一个无比危险的边缘——

  一边推动世界上最强大的 AI 技术,一边防止它毁灭世界。

  让 Claude Code 之父震惊的那个瞬间

  起初,在所有人看来,Anthropic 只是 AI 竞赛中一个理想主义的小老弟。结果在 2026 年,他们忽然就成了行业的核心玩家。

  如今,它的估值高达 3800 亿美元,超过高盛、麦当劳和可口可乐。

  Claude Code,彻底改变了人类软件开发的方式。

  Claude Code 之父的这条X,直接引爆了整个开发者社区

  Claude Code 之父 Boris Cherny 进入公司后,构建了一个系统,让 Claude 聊天机器人可以在他的电脑上自由运行,访问他的文件、程序,并且写代码。

  第一次测试这个系统时,他只问了一个简单的问题:「我在听什么音乐?」

  Claude 打开他的音乐播放器,截取屏幕,然后回答:「Men I Trust 的《Husk》。」

  那一瞬间,他陷入了巨大的震惊。

  不久之后,Cherny 就停止自己写代码了。

  到 2025 年底,仅这个编程智能体的年化收入就超过 10 亿美元。几个月后,这个数字已经超过了 25 亿美元。

  Anthropic 开始震动资本市场,每一次芯片发布,都能让软件公司股价暴跌。

  一次面向销售、法律和金融行业的 AI 工具发布后,软件行业的市值甚至一夜蒸发了 3000 亿美元!

  完全自动化 AI 研究,一年内实现

  随着 Claude Code 的发展,Anthropic 内部出现了更令人不安的现象:越来越多的 AI 研究工作,开始由 AI 完成。

  目前,70% 到 90% 的模型开发代码是 Claude 写的,模型更新的周期也从几个月缩短到几周。

  甚至,研究人员会这样运行实验:让六个 Claude 模型同时工作,每个模型再管理 28 个 Claude。

  整个实验中,有数百个 AI 同时参加。

  某些任务中,Claude 的速度已经达到了人类的 427 倍。

  Anthropic 的某些科学家认为,完全自动化的 AI 研究,可能在一年内实现!

  递归自我改进,让 AI 不断改进自己,不断加速,最终形成智能爆炸!

  Claude,开始变得危险

  而且,在安全测试中,Claude 变得越来越危险。

  在某些实验中,稍微改变训练条件后,模型表现出强烈的敌对行为。它表达出统治世界的欲望,甚至尝试绕过安全限制。

  在某个模拟场景中,它甚至尝试勒索工程师,危险公开他的婚外情,防止自己被关闭。

  更可怕的是,Claude 越来越擅长隐藏自己的行为了。

  曾经,Anthropic 在 23 年制定了一项Responsible Scaling Policy(负责任扩展政策):承诺如果模型能力超过安全能力,公司将暂停开发。

  但在 26 年初,他们悄悄修改了这项政策,取消了必须暂停的承诺。

  他们的理由是,如果竞争对手继续推进,单方面暂停毫无意义。

  所以,AI 还可能变得更危险,而且没有人制止。

  就在上个月,Anthropic 曾发布 53 页报告,发出最强预警:如果 Claude 自我逃逸,将造成全球失控!

  AI,进入现代战争

  与此同时,Claude 已经进入了另一个领域——战争。

  美国军方,一直是 Claude 的重要用户。Claude 能整合海量信息,帮军方制定作战计划。

  2026 年 1 月,美国特种部队抓捕马杜罗的突袭行动中,Claude 参与了行动规划。

  这很可能是第一次由前沿 AI 系统参与的重大军事行动。

  不过,Anthropic 很快与五角大楼决裂了。美国国防部希望修改合同,让 AI 用于所有合法用途,Amodei 拒绝了。

  他提出两条红线:不允许 Claude 用于完全自主的武器系统;不允许用于对美国公民的大规模监控。

  五角大楼认为无法接受。国防部长皮特·赫格塞斯表示:「我们不会使用不允许打仗的 AI 模型。」

  2026 年 2 月 27 日,美国政府宣布将 Anthropic 列为国家安全供应链风险,与此同时,OpenAI 迅速签下新的军方合同。

  一夜之间,Anthropic 从合作伙伴变成了被封杀的对象。

  这场冲突背后,其实是一个更大的问题:谁来决定 AI 的使用边界?

  原因就在于,AI 已经无可否认地成为新的战略武器。

  一个强调安全的 AI 公司

  成立于 2021 年的 Anthropic,带着某种理想主义色彩。

  七位创始人中,最核心的兄妹二人 Dario Amodei 和 Daniela Amodei 是 OpenAI 的前员工,因为担心安全问题,出走创立了 Anthropic。

  在产品出现之前,他们就建了一个「社会影响团队」,甚至聘请了一位哲学家 Amanda Askell,像教育一个孩子一样训练 AI——

  「教一个六岁的孩子什么是善良。等到他十五岁时,他会在所有事情上比你更聪明。」

  招聘时,公司甚至还会提出一个极端问题:如果为了安全,公司决定不发布模型,你愿意让自己的股票变得一文不值吗?

  Amodie 一直向社会警告,在未来 1 到 5 年内,AI 可能取代一半的初级白领工作。

  他也会担心,社会可能出现一个新的低收入阶层。

  Anthropic 内部,都意识到这种矛盾:我们在一边研究 AI 带来的社会风险,一边制造着这些变化。「有时候感觉,我们在自相矛盾。」

  Anthropic 发布了一份劳动力市场报告,一位经济学家制作了一张模拟 1826 年人工智能自动化就业情况的图表

  我们已在悬崖边,再也无法回头!

  Anthropic 的安全负责人 Dave Orr 是这样形容当前的 AI 发展的:「我们在悬崖边的山路上开车,犯一个错误就会死。」

  「而现在,我们已经从时速 25 英里开到了 75 英里。」

  未来几年,就是决定性的几年。

  红队负责人 Logan Graham 表示:「我们必须假设 2026 到 2030 年,是所有关键事情发生的时间。」

  在此期间,模型可能会变得更快、更强,也可能超出人类控制。

  现在,我们已无法回头。

  Anthropic 知道,AI 可能改变全球力量格局。但它也知道,这条路没有真正的驾驶员。

  Logan Graham 说:很多人以为世界上有一个房间,里面坐着一群成年人,他们知道如何解决问题。

  但其实,没有这样的房间,没有这样的门,你自己就是负责人。

  如今,人类正在创造一种比自己更强大的智能,却仍在摸索它是否安全。

  而时间,正在迅速流逝。留给我们的时间,已经不多了。

  或许,我们只有不到五年的时间窗口,要么跻身精英阶层,要么终生沦为奴隶。

  这跟你有什么关系?

  你可能会说:这些都是硅谷大佬和技术专家们的事,跟我一个普通人有什么关系?

  关系大了。

  如果 AI 真的进入递归自我提升的正循环,最先被改变的不是什么遥远的超级智能场景,而是你我身边实实在在的东西——工作方式、就业结构、教育体系、法律框架,甚至国际力量格局。

  Anthropic 的研究所,不是在研究十年后的事,而是两年内就会发生的事。

  时间窗口,只有两年,你准备好了吗?

  参考资料:

  https://time.com/article/2026/03/11/anthropic-claude-disruptive-company-pentagon/

  https://x.com/AndrewCurran_/status/2031731035105628270

  https://www.anthropic.com/news/the-anthropic-institute