AI自己造AI,概率60%,2028年底前!Anthropic联创坐不住了

  新智元报道

  编辑:元宇

  Anthropic 联合创始人 Jack Clark 读完数百份公开数据,得出一个让他自己也坐不住的结论:2028 年底前,AI 自己造 AI 的概率是 60%。支撑他这一判断的,是编程、科研复现、模型训练优化等多条能力曲线:每一条都在向右上方飞,没有减速迹象。

  AI 系统,可能很快就能自行构建自身了!

  说这句话的人,是 Anthropic 联合创始人 Jack Clark。

  5 月 4 日,他在X上发帖:「我认为,递归自我改进(RSI)有 60% 的概率在 2028 年底之前发生。」

  除了 Anthropic 联合创始人身份之外,Clark 还是《Import AI》的创办者兼主笔,长期跟踪 AI 能力进展。

  这次发帖,他在《Import AI》上同时发布了一篇完整的分析文章。

  https://importai.substack.com/p/import-ai-455-automating-ai-research

  这是一件大事。我不知道该如何理解它。这是一个我不情愿接受的看法:其影响太过巨大,让我感到自身渺小,而且我不确定,社会是否已准备好迎接自动化 AI 研发所带来的变革。

  Clark 在文章里写:如果这一天到来,人类将跨过一道「卢比孔河」,进入一个几乎无法预测的未来

  他不认为这会发生在 2026 年,但他预判一两年内可能在非前沿模型上,出现这样的概念验证:一个模型,端到端训练出自己的继任者。

  支撑 Clark 结论的,主要来自公开信息:arXiv、bioRxiv、NBER 上的论文,加上他对各大前沿实验室产品的持续观察,Clark 以此拼凑出一幅关于 AI 进展的全景图。

  在他看来,AI 工程化生产的所有组件,今天已经基本齐了。剩下的问题是:模型什么时候能积累足够的创造力,开始像人类研究员一样推动前沿演进。

  四年

  从 30 秒到 12 小时

  Clark 的核心论据,是一批能力进展曲线。

  先看 METR 的时间轴图。

  https://metr.org/time-horizons/

  METR 是一个专注 AI 能力评估的机构,他们追踪的是:AI 系统能独立完成一项任务,在 50% 成功率水平线上,这项任务如果让一个熟练的人来做大概需要多少时间。

  • 2022 年,GPT-3.5 的数字是:30 秒;

  • 2023 年,GPT-4 把这个数字推到了 4 分钟;

  • 2024 年,o1 推到了 40 分钟;

  • 2025 年,GPT-5.2(高配版)跨到了 6 小时;

  • 2026 年,Claude Opus 4.6 已经到了 12 小时。

  四年,从 30 秒到 12 小时,翻了 1440 倍!

  AI 能力研究员 Ajeya Cotra 认为,2026 年底之前,这个数字有望突破 100 小时。

  如果达到 100 小时时间跨度,它将能覆盖许多多日级软件/研究辅助任务。

  编程能力同样也在起飞。

  SWE-Bench 衡量的是 AI 解决真实 GitHub 工程问题的能力。2023 年底,Claude 2 的得分是2%。到今年,Claude Mythos Preview 达到 93.9%,这个基准基本被打穿了。

  CORE-Bench 测的是另一件事:给 AI 一篇论文和对应的代码库,让它独立复现实验结果,这是 AI 研究员最基本的日常工作之一。

  2024 年 9 月该测试推出时,最好成绩是 21.5%。2025 年 12 月,Opus 4.5 在 Claude Code scaffold 下 verified accuracy 为 77.78%,经人工校验后为 95.5%,项目方称 CORE-Bench 已被解决。

  https://hal.cs.princeton.edu/corebench_hard

  15 个月,从 21.5% 到 95.5%。

  MLE-Bench 测的是 AI 独立参加 Kaggle 竞赛的能力,覆盖 75 个真实比赛项目。

  2024 年 10 月发布时最高分 16.9%,到 2026 年 2 月,Gemini 3 加搜索工具的组合已经达到 64.4%。

  https://github.com/openai/mle-bench

  Anthropic 内部还有一个测试:让模型优化一个仅使用 CPU 的小型语言模型训练代码,越快越好,以未优化版本的速度为基准。

  • 2025 年 5 月,Claude Opus 4:2.9 倍;

  • 2025 年 11 月,Opus 4.5:16.5 倍;

  • 2026 年 2 月,Opus 4.6:30 倍;

  • 2026 年 4 月,Claude Mythos Preview:52 倍。

  不到一年,从 2.9 倍涨到 52 倍。

  这是 AI 在优化 AI 训练代码这件事情上的进展速度。

  99% 的工程活

  AI 快接完了

  这里有一个关键问题:AI 研究这件事,到底有多少是纯工程,多少是真正的创意?

  Clark 给出了一个框架,引用了爱迪生那句话:天才是1% 的灵感和 99% 的汗水。

  他认为,AI 研究也是如此。

  一个典型的 AI 研究循环是这样的:拿一个现有系统,在某个维度上扩大规模,观察什么地方开始出问题,修掉工程问题,再扩大一轮。

  这个过程里,大部分工作是数据清洗、跑实验、调参数、读论文、复现结果,这些都是「汗水」,不是「灵感」。

  偶尔会出现真正改变范式的发明,比如 Transformer 架构,比如混合专家模型(MoE)。但那是1%,而且这1% 越来越不是瓶颈,因为那 99% 的工程工作正在被 AI 快速接管。

  Clark 列了几个信号:

  AI 已经能管理其他 AI。Claude Code、OpenCode 这类工具里,单个 AI 可以扮演「项目经理」,把任务分发给多个子 AI 并行处理,之后汇总结果。

  这和一个人类研究团队的组织方式没有本质区别。

  PostTrainBench 测试了一件事:AI 能不能自己微调开源小模型,提升它在某个任务上的表现?

  这个工作通常是前沿实验室里有经验的研究员在做。

  截至 2026 年 3 月,AI 系统在这个任务上能做到人类研究员效果的一半左右,大约是 25% 到 28% 的提升幅度,而人类基线是 51%。

  https://posttrainbench.com/

  Anthropic 内部还有一个「自动化对齐研究」的概念验证:让一组 AI agent,在 AI 安全研究问题上自主攻关。

  结果是,AI 给出的方案超过了 Anthropic 人类研究员的基线。

  https://www.anthropic.com/research/automated-alignment-researchers

  Clark 把这些证据串在一起的判断是:AI 今天已经能自动化 AI 工程的绝大部分,AI 研究里有多少能自动化,还不完全清楚,但迹象已经很明显。

  质疑声也来了

  Clark 的帖子发出后,行业里也出现了一些质疑。

  华盛顿大学机器学习教授,《终极算法》作者 Pedro Domingos 回复到:「从 LISP 在 50 年代发明以来,AI 就能构建自己了。问题在于,这个过程究竟能带来递增回报还是递减回报——而目前没有任何证据支持前者。」

  递归自我改进听起来很科幻,但能循环不等于循环有收益。如果每一代 AI 优化自己的效率只有边际改善,而不是指数级放大,那这件事的影响范围会非常有限。

  还有人质疑概念边界。「RSI 到底有没有一个权威定义?」一位名叫 Dan Brickley 的研究员问道。

  另一个更尖锐的观察来自账号@crepesupreme:

  2027 年 30%,2028 年 60%。一年内概率跳升 30 个百分点,意味着 2027 到 2028 年之间存在某个不连续的能力事件。那个具体事件是什么?

  Clark 在通讯文章里回应了这个隐含问题:他认为 AI 研究仍需要某种创意突破才能真正进入「自我研发」循环:AI 目前在这一块还没有变革性的表现。这正是他给 2027 年只打 30% 的原因;而如果这个缺口在 2028 年底前被填上,概率就升到 60%。

  但他同时也承认,自己预判的是概率,而不是确切的时间点。

  还有人问他:「你在 Anthropic 工作,你为什么要去翻公开数据?直接走下楼去问研究员不就行了?」

  Clark 的答案是:用公开数据,是因为公开数据才有可信度。他要的不是内部判断,是一个任何人都能独立核验的结论。

  窗口还开着

  但在缩窄

  Clark 在通讯文章里写:他为什么不给 2027 年更高的概率?

  因为他认为 AI 研究还包含一些对创意直觉的要求,而 AI 目前在这一块只有「诱人的早期信号」,还没有系统性突破。

  他列了两个信号:一个是 Gemini 模型参与攻克 Erdős数学问题,在 700 个问题里解出了 1 个被数学家认为有一定原创性的解。

  另一个是斯坦福、UBC 等机构与 Google DeepMind 合作,AI 在发现新数学证明中起到了「非常实质性的作用」。

  这些结果在 AI 能力演化的时间轴上,可能是某种早期信号。

  Clark 的估计是:如果 2028 年底没有出现他描述的情况,那说明当前技术路径存在某个根本性的能力天花板,需要人类的创意才能突破。

  更关键的是「如果出现了」之后的问题。

  Anthropic 在 2026 年 3 月宣布成立 The Anthropic Institute 时,官方声明里写了这样一句话:

  如果 AI 系统的递归自我改进确实开始发生,那么世界上谁应该被告知,以及这些系统应该如何治理?

  https://www.anthropic.com/news/the-anthropic-institute

  连 Anthropic 自己,都还没有这个问题的完整答案。

  Clark 在通讯文章里给出了一个更技术性的担忧:今天的对齐技术,如果有 99.9% 的准确率,在递归迭代 50 代之后,准确率会跌到 95.1%;迭代 500 代之后,跌到 60.5%。

  除非你的对齐方案在理论上能保证在更智能的系统上同样有效,否则问题会很快出现。

  也许,Clark 想要说的是:治理窗口是有限的,而且它正在缩窄。他希望通过文章发出一个提醒:这件事留给讨论、研究和治理设计的时间,比大多数人想象的短。

  据奥特曼直播及媒体报道,OpenAI 的目标是让 AI 在 2026 年 9 月前达到「AI 研究实习生」水平,2028 年达到更完整的自动化研究员;Anthropic 自己也在发表自动化对齐研究的概念验证;一家叫 Recursive Superintelligence 的新公司刚刚完成 5 亿美元融资,其目标之一就是自动化 AI 研究。

  整个行业已经在朝这个方向加速了。

  Clark 说,无论从哪个维度看,数据都指向同一个方向,而每一条曲线,都在向右上方飞,时间越长,能力越强,而且没有任何一条显示出减速的迹象。

  参考资料:

  https://x.com/chatgpt21/status/2051314386317295758

  https://importai.substack.com/p/import-ai-455-automating-ai-research

  https://www.anthropic.com/research/automated-alignment-researchers