全球顶级模型集体0分,AI终极大考人类5分钟秒杀!Keras之父戳破AGI神话

  新智元报道

  编辑:桃子英智

  AI 界「智商大考」ARC-AGI-2 重磅出炉了!一个人类用 5 分钟轻松解开的谜题,却让最顶尖 LLM 全线崩盘得分挂零,o3 更是从曾经 76% 暴跌至4%。它正式宣告,人类还未实现 AGI。

  时隔 6 年,ARC-AGI-2 正式推出!

  一大早,Keras 之父 François Chollet 官宣了全新迭代后的 ARC-AGI-2,再次拉高了 AI「大考」的难度。

  这些对人类再简单不过的题目,LLM 最先败北,先上结果:

  基础大模型(GPT-4.5、Claude 3.7 Sonnet、Gemini 2 ),全部得 0 分。

  CoT 推理模型(Claude Thinking、R1、o3-mini),得分也不过4%。

  相较之下,2024 年 ARC Prize 冠军模型(53.5%)却在新版本考试中,成绩仅剩 3.5%。

  OpenAI 的 o3-low 模型也从 75.7% 骤降至4%。而且,每项任务成本效率也是 o3-low 和 o1-pro 最高,达到 200 美金。

  相反,在 ARC-AGI-2 里的每个任务,都至少有两名人类能在两次尝试内成功解决。

  ARC-AGI-2 的出世,证明了「人类尚未实现 AGI」!

  现场 400 人实测,普通人无训练能拿下 60% 准确率,10 人小组能达到 100%

  初代 ARC-AGI(2019 年),曾在去年揭示了 AI 重大转变,LLM 从「纯记忆」向「测试时推理」的进化。

  许多之前一眼就看透的问题,在 ARC-AGI-2 中,至少需要几分钟的深思熟虑——人类测试者平均需要 5 分钟才能解题。

  最新 ARC-AGI-2,恰恰暴露了当前 AI 三大短板:符号解释、组合推理、上下文规则应用。

  这些皆需要 LLM 在测试时,展现真正的适应能力,具备灵活应对新问题的「流体智力」,而不是靠预训练数据「硬背」过关。

  值得一提的是,2025 年 ARC 奖本周将在 Kaggle 平台上线,总奖金高达 100 万美元。

  今年的竞赛在去年基础上再加码,计算资源翻倍,旨在推动开源项目发展,助力打造能战胜 ARC-AGI-2 的系统。

  AI「大考」难度进阶,AGI 梦碎?

  其他 AI 基准测试,基本都聚焦于测试「博士以上水平」的技能,来考察超越人类的能力或专业知识。

  但 ARC-AGI 关注的是对人类相对容易,对 AI 却困难重重的任务。

  这样一来,就能精准定位那些不会因为规模扩大就自动消失的能力差距。

  ARC 奖将此融入对 AGI 的衡量标准:对人类容易、对 AI 困难的任务之间的差距,即「人机差距」。

  当这个差距变为零,也就是不存在能难倒 AI 的任务时,我们就实现了 AGI。

  要弥补这些能力差距,需要全新的见解和思路。ARC-AGI 不只是衡量 AGI 的进展,更重要的是激励研究人员探索新思路。

  AI 系统在不少特定领域(如围棋、图像识别)已超越人类。但这些只是狭隘、专门的能力。

  「人机差距」揭示了 AGI 所欠缺的部分:高效获取新技能的能力。

  ARC-AGI-2 登场,基础 LLM 挂零

  今日正式发布的 ARC-AGI-2 基准测试,在对人类难度不变的前提下,极大提高了对 AI 的难度挑战。

  在一项有 400 人参与的对照研究中,ARC-AGI-2 的每个任务,都至少有两名参与者能在两次或更少的尝试内解决。

  这和给 AI 设定的规则一致,每个任务 AI 都有两次尝试机会。

  与 ARC-AGI-1 类似,ARC-AGI-2 采用「两次尝试通过(pass@2)」的评估体系,因为部分任务存在显著的模糊性,需要两次猜测来消除歧义,同时也用于排查数据集中可能无意出现的模糊或错误之处。

  经过人类测试,相较于 ARC-AGI-1,作者对 ARC-AGI-2 任务质量更具信心。

  以下是 ARC-AGI-2 的官方更新内容:

  • 所有评估集(公开、半私有、私有)的任务数量从 100 个增加至 120 个。

  • 剔除了评估集中易受暴力搜索破解的任务,即 2020 年原始 Kaggle 竞赛中已被解决的所有任务。

  • 开展人类测试,以校准评估集难度,确保任务独立同分布,并验证至少有两名人类可在两次尝试内解决任务,这与对 AI 的要求一致。

  • 根据研究成果,设计了新任务来挑战 AI 推理系统,涵盖符号解释、组合推理、上下文规则等多个方面。

  2019 年推出的 ARC-AGI-1,主要是为了挑战深度学习,尤其是防止模型单纯「记忆」训练数据集。

  ARC-AGI 包含一个训练数据集和多个评估集,其中私有评估集用于 2024 年 ARC 奖竞赛。训练集的作用是让模型学习解决评估集中任务所需的核心知识。

  为了完成评估集中的任务,AI 必须展现出适应全新任务的能力。

  打个比方,训练集就像是教你认识小学算术符号,而评估集则要求用这些符号知识去解代数方程。你不能靠死记硬背得出答案,必须把知识灵活运用到新问题上。

  ARC-AGI-2 对 AI 的要求更高,要想战胜它,必须具备高度的适应性和高效性。

  下面是 ARC-AGI-2 的示例任务,满足两个条件:一是至少有两名人类能在两次尝试内解决;二是所有前沿 AI 推理系统都无法解决。

  符号解释

  前沿 AI 推理系统在处理需要赋予符号超出视觉模式意义的任务时,表现欠佳。

  系统能进行对称性检查、镜像、变换,甚至识别连接元素,但就是无法理解符号本身的语义。

  组合推理

  AI 推理系统在处理需要同时应用多个规则,或者应用相互关联规则的任务时,困难重重。

  相反,要是任务只有一两条全局规则,这些系统就能发现并运用规则。

  上下文规则应用

  AI 推理系统在面对需根据上下文灵活应用规则的任务时,也会陷入困境。

  它们往往只关注表面模式,无法理解背后的选择原则。

  两人组队拿满分,o3 仅4%

  ARC-AGI-2 由以下数据集构成:

  校准指的是这些任务具有独立同分布(IDD)特性。理论上,在公开、半私有和私有评估集上,未出现过拟合情况的分数应具有直接可比性。

  为收集相关数据,在严格受控的环境下,对 400 多位人类进行了测试。

  接下来几周,公开任务的人类可解性数据将与 ARC-AGI-2 论文一同发布。

  对所有公开的 AI 系统重新评估,ARC-AGI-2 起始分数如下:

  带*的分数,是根据目前收集到的部分结果,还有 o1-pro 的定价估算出来的。完整结果一出来,马上会公布。

  所有分数均按照「两次尝试通过(pass@2)」标准,且基于半私有评估集得出(ARC-AGI-1 人类小组和 ARChitects 除外,分别基于公开评估集和私有评估集)。

  人类小组的效率计算基于 115-150 美元的到场费用,外加解决每个任务奖励 5 美元。

  对成本进行了优化以提升到场率(实际到场率为注册人数的 70%)。尽管人类智能成本效率的极限可能在每个任务2-5 美元区间,但基于实际收集的数据,报告中每个任务 17 美元。

  等 OpenAI o3 low/high 的 API 开放,将对其正式版本进行测试。

  用从 ARC-AGI-1 转到 ARC-AGI-2 的任务进行预估,o3-low 得分约为4%,如果计算量特别大(每个任务数千美元),o3-high 得分有望达到 15-20%。

  智能并非仅是能力

  从现在开始,所有 ARC-AGI 的报告都将附带一项效率指标。

  首先选择成本作为指标,因为在对比人类与 AI 性能时,成本具有最直接的可比性。

  智能并非仅是解决问题和获取高分的能力。获取和运用这些能力的效率,是智能的关键要素。

  核心问题不仅在于「AI 能否掌握解决任务的技能?」,更在于「以怎样的效率或成本来掌握?」

  前沿 AI 系统在 ARC-AGI-1 与 ARC-AGI-2 上的得分

  仅靠规模远远不够

  在资源与搜索时间不受限的情况下,暴力搜索最终能够解决 ARC-AGI 问题。

  但这绝非真正的智能。智能在于高效地找到解决方案,而非盲目穷举。

  关注效率是 ARC-AGI 的核心原则。

  明确量化智能的成本,要求解决方案不仅展示能力,更要展现对资源的高效利用,这才是 AGI 的本质。

  全新的 ARC-AGI 排行榜页面将从分数和成本两个维度同步呈现。

  截至 2025 年 3 月 24 日,ARC-AGI 新排行榜同时展示分数与效率

  本周竞赛盛大开启!

  随着 ARC-AGI-2 的发布,2025 年 ARC Prize 重磅回归!竞赛将于 3 月至 11 月期间在 Kaggle 平台举办。

  竞赛设有 12.5 万美元的保底进展奖,以及高达 70 万美元的大奖,团队得分超过 85% 即可解锁!

  此外,还有 17.5 万美元的奖项待后续公布细则。

  Kaggle 竞赛规则禁止使用互联网 API,每次提交仅可使用约 50 美元的计算资源。

  为获取获奖资格,参赛者需在竞赛结束时开源解决方案。

  去年的竞赛成果斐然,超过 1500 支团队踊跃参与,产出了 40 篇极具影响力的研究论文。

  获奖研究人员提出的创新理念已在 AI 行业得到广泛应用。

  参考资料:

  https://x.com/arcprize/status/1904269307284230593

  https://x.com/fchollet/status/1904265979192086882

  https://arcprize.org/blog/announcing-arc-agi-2-and-arc-prize-2025