Meta华人实习生搞出超级智能体!自己写代码实现自我进化

  henry 发自凹非寺

  量子位 | 公众号 QbitAI

  能无限进步的「超级智能体」来了!

  最近,Meta 研究团队的一篇题为 HYPERAGENTS(超级智能体)的论文迅速刷屏。

  这篇论文将 LSTM 之父Jürgen Schmidhuber二十年前提出的哥德尔机(Gödel Machine)思想,与达尔文开放算法相结合,提出了能持续自我迭代的达尔文哥德尔机

  基于此这一思想,Agent 不仅能更好地完成具体任务、持续提高自身表现。

  更关键的是,它可以不断优化“改进自身”的底层逻辑,实现“元学习(Meta-learning)”

  这,便是论文定义的新一代超级智能体——Hyperagents

  论文更进一步提出:未来 AI 有望通过持续自我迭代,最终突破人类预设的初始算法边界,也正因如此,AI 安全必须被摆在核心位置。

  不少网友也感慨道:

元学习真正让人既害怕又兴奋的,是元层面的改进能够跨领域迁移。这不是在某一件事上变得更厉害,而是学会了在一切事情上变得更厉害。

  目前,这篇论文已被 ICLR 2026 接收。

  从哥德尔机到达尔文哥德尔机

  要理解超级智能体 Hyperagents,必须先了解它的基石——

  哥德尔机(Gödel Machine)

  哥德尔机是一种假设性的自我完善型 AI。它在数学上寻求证明:

  如果存在某种更好的策略,它会通过递归重写自身代码来解决问题。

  而这一假设,最早由尤尔根·施密德胡伯(Jürgen Schmidhuber)在二十多年前提出。

  在传统机器学习中,AI 的“学习方法”是人类预设的硬编码,它只能通过调整内部参数来逼近目标

  而哥德尔机则打破了这一限制,它能够将算法框架本身视为可编辑的代码,通过自主重写程序来实现学习能力的自我演进。

  但问题也随之而来:哥德尔机往往要求 AI 在自我演进之前,证明该改动具备净收益。

  也就是说,改代码花掉的算力成本,未来能不能通过更强的性能赚回来?

  不幸的是,这种计算在现实中的复杂任务中几乎是无法实现的。

  针对这一问题,Meta 团队提出达尔文哥德尔机(DGM),它利用开放式算法(Open-ended algorithms),通过在大模型提议的代码改进方案中进行搜索,获取能从经验上提升性能的方案。

  换句话说,DGM 利用基础模型来提议代码改进方案,并利用开放式算法的最新创新成果,来搜索并构建一个不断增长的、多样化且高质量的 AI 智能体库。

  基于此,DGM 能创造出各种自我改进方案,例如:增加补丁验证(Patch Validation)步骤、优化文件查看功能、增强编辑工具、生成并筛选多个解决方案以选出最优解,以及在进行新更改时,会自动添加历史尝试记录(并分析失败原因)以供参考。

  论文的实验还表明,DGM 获得的算力越多,自我提升效果越好。

  超级智能体

  虽然 DGM 很强,但它存在一个致命限制:它主要在编程任务中有效。

  这是因为 DGM 依赖一个关键假设——评估任务与自我修改任务必须“对齐”。

  在编程领域,这种对齐是天然的:提升了编程能力,自然也就提升了修改自身代码的能力。

  也就是说,解决外部编程问题的逻辑工具,可以直接转化为修改其自身底层代码的能力。

  相反,如果是在非编程领域(如写诗),即便提升了写诗能力,也无法直接转化为修改代码的逻辑水平。

  在这种缺乏“自指性(Self-referentiality)”的任务中,DGM 的递归进化链条就会断裂,陷入停滞。

  基于此,文章提出超级智能体——它们既能修改自己的任务执行行为,也能修改生成未来改进建议的过程。

  这实现了所谓的元认知自我修改(metacognitive self-modification):不仅学习如何做得更好,还学习如何更有效地进行改进。

  进一步,论文将超级智能体实例化为 DGM-Hyperagents (DGM-H)。

  DGM-H 是对 DGM 的扩展,其中任务解决行为和自我改进程序都是可编辑且可进化的,其框架如下:

  • 自指性架构:它将“任务智能体(Task Agent)”与“元智能体(Meta Agent)”整合为一个单一的、可编辑的程序。
  • 元级进化:在 Hyperagents 中,“改进的方法”本身也是可以被改进的。这使得系统不再要求任务与修改必须对齐,从而实现了跨领域的“元认知自我修改”。

  打个比方,在 Hyperagents 中,运动员不仅在训练,教练也在学习如何更好地执教。由此,运动员的表现和教练的执教水平不断螺旋上升。

  此外,DGM-H 还改进了生成新智能体的过程(例如引入持久化记忆、性能追踪等),且这些元级改进具有跨领域迁移和跨运行累积的特性。

  实验验证:从 20% 到 50% 的跨越

  实验证明,达尔文哥德尔机(Darwin Gödel Machine)能够通过修改自身代码库实现持续的自我提升。

  在 SWE-bench 上,DGM 自动将其性能从 20. 0% 提升至 50.0%。

  在 Polyglot 上,DGM 的性能从初始的 14.2% 跃升至 30.7%,远超由 Aider 开发的具有代表性的人工设计智能体。

  这些结果证明了 DGM 能发现并实施有效的自我改进。

  而实现这一点的关键在于其开放式进化搜索策略:

  通过从现有智能体库中采样生成新智能体,DGM 能够并行探索多条进化路径。

  性能稍逊的“祖先”智能体在发现新方法和功能方面起关键作用,避免了早熟收敛。

  此外,DGM 的改进具有广泛的迁移性:

  • 针对 Claude 3.5 Sonnet 优化的智能体,在切换到 o3-mini 或 Claude 3.7 Sonnet 时仍能提升性能。
  • 在 Polyglot 基准中,Python 任务上的自我改进同样提升了 Rust、C++、Go 等不同语言任务的表现。

  作者介绍

  最后,让我们来介绍一下这篇论文的作者们。

  这篇论文的第一作者是来自 UBC 的Jenny Zhang,她师从Jeff Clune教授。

  她本科就读于帝国理工,这篇论文是她在 Meta 实习期间完成的。她的研究方向专注于强化学习、自改进 AI 与 Open-Ended AI。

  Bingchen Zhao是来自爱丁堡大学的博士生,,师从Oisin Mac Aodha教授

  他本科毕业于同济大学,他此前在 Meta FAIR 团队,致力于构建自我改进的 AI 系统。

  Wannan Yang在纽约大学攻读博士,目前在 Meta 超级智能实验室实习,她本科毕业于爱丁堡大学。

  论文的其他作者还包括 Jeff Clune、以及来自 Meta 的研究员 Minqi Jiang(已离职)、Sam DevlinTatiana Shavrina。

  [1]https://arxiv.org/pdf/2603.19461

  [2]https://sakana.ai/dgm/

  [3]https://x.com/jennyzhangzt