浙大校友用AI突破32年拉姆齐数下界

  闻乐发自凹非寺

  量子位 | 公众号 QbitAI

  数学界尘封 32 年的拉姆齐数经典难题被打破!

  浙大校友王宜平借助自研 AI 框架 ScaleAutoResearch-Ramsey,成功将拉姆齐数R(3,17) 下界从 92 提升至 93,终结了自 1994 年以来长期停滞的纪录。

  同时他还将R(4,15) 下界刷新至 160,成果直接超越谷歌 DeepMind 同期 AlphaEvolve 的研究水平。

  而且,这次世界级数学突破并没有依赖超级算力集群,仅用 Claude Code、Codex+1 台 CPU 服务器就完成全部攻坚,成果已全量开源

  拉姆齐数

如果外星人威胁地球,要求我们给 R (5,5) 的精确值,人类应动用所有算力;但如果要的是 R (6,6),我们不如直接开战。

  数学巨匠保罗・埃尔德什的这句调侃,直接说明了拉姆齐数有多难缠。

  作为组合数学的核心难题,拉姆齐数本质上是在寻找“无序中必然出现秩序”的临界值。

  R (3,17) 下界用生活化的派对问题来理解就是:

  无论派对上的人如何随机社交,总能找到 3 个互相认识的小圈子(对应数学中的三角形结构),或是 17 个完全互不相识的人(对应“17 点独立集”),这个最小的派对人数,就是 R (3,17) 的精确值。

  但求解这个数值远比想象中艰难。

  如今 R (5,5) 的精确值仍卡在 43-48 的区间,算出 R (6,6) 还不如向外星人开战……

  而 R (3,17) 自 1994 年被数学家 Wang-Wang-Yan 锁定在 92 后,全球顶尖团队轮番攻关,却始终无法撼动这一数字,渐渐成了横跨 32 年的学术僵局。

  而且,它的研究成果直接关联图论、算法设计、网络优化等关键领域,从人工智能到通信网络,都能找到它的应用影子,是数学与计算机科学交叉领域的香饽饽。

  怎么做到的?

  王宜平的突破,始于一次“反其道而行之”的尝试。

  在此之前,传统方法的思路是:

  先构造一张没有三角形的图,再慢慢压缩其中的独立集规模。

  但无论算法如何优化,在 92 个顶点的限制下,独立集始终停留在 18 个,怎么也压不到 16 个的目标。

  但王宜平换了一条逆向思路:

  放弃零三角形的初始要求,先构建一张独立集不超过 16 个但含少量三角形的图,再通过 AI 的复合删除修复策略,一点点删掉三角形,同时修复过程中新生的独立集冲突。

  他融合了了 karpathy autoresearch、AlphaEvolve、拉姆齐数综述等成熟思路,搭建了一套 AI 自我迭代进化的研究框架,让 AI 可以不断沿用过往的优质探索结果,往更深、更细的方向持续深挖。

  系统会同时启动多组独立智能体,用不同算法、不同初始参数并行搜索图结构空间,有效避免探索陷入局部无解;

  全程以结构冲突数为评判标准,把每一次优化出的更好图谱保存下来当作基础模板,后续迭代都在已有优质成果上继续打磨,靠不断沉淀积累逼近最优解,这也是其和谷歌 AlphaEvolve 最大的区别;

  而且所有推演得出的结果都会通过专业核验工具严格筛查,精准校验图中是否存在违规三角形、是否超出独立集数量上限,每一个关键突破节点都有完整核验记录,从根源上保证研究结果严谨可信。

  这套 AI 框架从最初仅含 12 个三角形的图结构出发,像闯关升级一样逐步推进。

  12 个、11 个、10 个……每一步都要平衡“删三角形”和“控独立集”的矛盾,最终在 92 个顶点上,成功构造出一张完美的图——

  既没有三角形,也不存在 17 个互不相连的点,直接证明了 R (3,17)≥93。

  这套框架还顺带攻克了 R (4,15) 的下界难题,将其从 159 提升至 160。

  而就在今年,谷歌 DeepMind 的 AlphaEvolve 也只做到了复刻 R (3,17) 的旧下界 92,没能实现实质性突破。

  作者介绍

  王宜平本科毕业于浙江大学竺可桢荣誉学院,获计算机科学与数学双学位。

  现在是华盛顿大学保罗·G·艾伦计算机科学与工程学院博士生。

  他现任 xAI 技术团队成员,并曾在微软实习。长期研究目标是开发安全、可扩展的超人类 AI 系统,推动科学进步。

  近期研究聚焦于大语言模型的推理强化学习以及 AI for Math,同时也涉猎多模态和机器学习理论等领域。

  One More Thing

  除此之外,中科大马杰教授、清华申武杰、中科大谢晟捷团队在拉姆齐数研究中实现 78 年来首次指数级理论改进。

  就在前几天,相关成果发表于数学四大顶刊之一《Inventiones Mathematicae》(《数学新进展》);

  从宏观数学规律层面,显著拔高了拉姆齐数下界的增长阶数,相当于给这类问题的求解划定了更高的理论天花板。

  参考链接:

  [1]https://x.com/ypwang61/status/2052508685591785619

  [2]https://github.com/ypwang61/ScaleAutoResearch-Ramsey