henry 发自凹非寺
量子位 | 公众号 QbitAI
能无限进步的「超级智能体」来了!
最近,Meta 研究团队的一篇题为 HYPERAGENTS(超级智能体)的论文迅速刷屏。

这篇论文将 LSTM 之父Jürgen Schmidhuber二十年前提出的哥德尔机(Gödel Machine)思想,与达尔文开放算法相结合,提出了能持续自我迭代的达尔文哥德尔机
基于此这一思想,Agent 不仅能更好地完成具体任务、持续提高自身表现。
更关键的是,它可以不断优化“改进自身”的底层逻辑,实现“元学习(Meta-learning)”
这,便是论文定义的新一代超级智能体——Hyperagents
论文更进一步提出:未来 AI 有望通过持续自我迭代,最终突破人类预设的初始算法边界,也正因如此,AI 安全必须被摆在核心位置。
不少网友也感慨道:
元学习真正让人既害怕又兴奋的,是元层面的改进能够跨领域迁移。这不是在某一件事上变得更厉害,而是学会了在一切事情上变得更厉害。

目前,这篇论文已被 ICLR 2026 接收。

从哥德尔机到达尔文哥德尔机
要理解超级智能体 Hyperagents,必须先了解它的基石——
哥德尔机(Gödel Machine)
哥德尔机是一种假设性的自我完善型 AI。它在数学上寻求证明:
如果存在某种更好的策略,它会通过递归重写自身代码来解决问题。
而这一假设,最早由尤尔根·施密德胡伯(Jürgen Schmidhuber)在二十多年前提出。

在传统机器学习中,AI 的“学习方法”是人类预设的硬编码,它只能通过调整内部参数来逼近目标
而哥德尔机则打破了这一限制,它能够将算法框架本身视为可编辑的代码,通过自主重写程序来实现学习能力的自我演进。
但问题也随之而来:哥德尔机往往要求 AI 在自我演进之前,证明该改动具备净收益。
也就是说,改代码花掉的算力成本,未来能不能通过更强的性能赚回来?
不幸的是,这种计算在现实中的复杂任务中几乎是无法实现的。
针对这一问题,Meta 团队提出达尔文哥德尔机(DGM),它利用开放式算法(Open-ended algorithms),通过在大模型提议的代码改进方案中进行搜索,获取能从经验上提升性能的方案。

换句话说,DGM 利用基础模型来提议代码改进方案,并利用开放式算法的最新创新成果,来搜索并构建一个不断增长的、多样化且高质量的 AI 智能体库。
基于此,DGM 能创造出各种自我改进方案,例如:增加补丁验证(Patch Validation)步骤、优化文件查看功能、增强编辑工具、生成并筛选多个解决方案以选出最优解,以及在进行新更改时,会自动添加历史尝试记录(并分析失败原因)以供参考。
论文的实验还表明,DGM 获得的算力越多,自我提升效果越好。
超级智能体
虽然 DGM 很强,但它存在一个致命限制:它主要在编程任务中有效。
这是因为 DGM 依赖一个关键假设——评估任务与自我修改任务必须“对齐”。

在编程领域,这种对齐是天然的:提升了编程能力,自然也就提升了修改自身代码的能力。
也就是说,解决外部编程问题的逻辑工具,可以直接转化为修改其自身底层代码的能力。
相反,如果是在非编程领域(如写诗),即便提升了写诗能力,也无法直接转化为修改代码的逻辑水平。
在这种缺乏“自指性(Self-referentiality)”的任务中,DGM 的递归进化链条就会断裂,陷入停滞。
基于此,文章提出超级智能体——它们既能修改自己的任务执行行为,也能修改生成未来改进建议的过程。
这实现了所谓的元认知自我修改(metacognitive self-modification):不仅学习如何做得更好,还学习如何更有效地进行改进。
进一步,论文将超级智能体实例化为 DGM-Hyperagents (DGM-H)。
DGM-H 是对 DGM 的扩展,其中任务解决行为和自我改进程序都是可编辑且可进化的,其框架如下:

- 自指性架构:它将“任务智能体(Task Agent)”与“元智能体(Meta Agent)”整合为一个单一的、可编辑的程序。
- 元级进化:在 Hyperagents 中,“改进的方法”本身也是可以被改进的。这使得系统不再要求任务与修改必须对齐,从而实现了跨领域的“元认知自我修改”。
打个比方,在 Hyperagents 中,运动员不仅在训练,教练也在学习如何更好地执教。由此,运动员的表现和教练的执教水平不断螺旋上升。
此外,DGM-H 还改进了生成新智能体的过程(例如引入持久化记忆、性能追踪等),且这些元级改进具有跨领域迁移和跨运行累积的特性。
实验验证:从 20% 到 50% 的跨越
实验证明,达尔文哥德尔机(Darwin Gödel Machine)能够通过修改自身代码库实现持续的自我提升。
在 SWE-bench 上,DGM 自动将其性能从 20. 0% 提升至 50.0%。

在 Polyglot 上,DGM 的性能从初始的 14.2% 跃升至 30.7%,远超由 Aider 开发的具有代表性的人工设计智能体。

这些结果证明了 DGM 能发现并实施有效的自我改进。
而实现这一点的关键在于其开放式进化搜索策略:
通过从现有智能体库中采样生成新智能体,DGM 能够并行探索多条进化路径。

性能稍逊的“祖先”智能体在发现新方法和功能方面起关键作用,避免了早熟收敛。

此外,DGM 的改进具有广泛的迁移性:
- 针对 Claude 3.5 Sonnet 优化的智能体,在切换到 o3-mini 或 Claude 3.7 Sonnet 时仍能提升性能。
- 在 Polyglot 基准中,Python 任务上的自我改进同样提升了 Rust、C++、Go 等不同语言任务的表现。

作者介绍
最后,让我们来介绍一下这篇论文的作者们。

这篇论文的第一作者是来自 UBC 的Jenny Zhang,她师从Jeff Clune教授。

她本科就读于帝国理工,这篇论文是她在 Meta 实习期间完成的。她的研究方向专注于强化学习、自改进 AI 与 Open-Ended AI。
Bingchen Zhao是来自爱丁堡大学的博士生,,师从Oisin Mac Aodha教授
他本科毕业于同济大学,他此前在 Meta FAIR 团队,致力于构建自我改进的 AI 系统。

Wannan Yang在纽约大学攻读博士,目前在 Meta 超级智能实验室实习,她本科毕业于爱丁堡大学。

论文的其他作者还包括 Jeff Clune、以及来自 Meta 的研究员 Minqi Jiang(已离职)、Sam DevlinTatiana Shavrina。
