闻乐发自凹非寺
量子位 | 公众号 QbitAI
数学界尘封 32 年的拉姆齐数经典难题被打破!
浙大校友王宜平借助自研 AI 框架 ScaleAutoResearch-Ramsey,成功将拉姆齐数R(3,17) 下界从 92 提升至 93,终结了自 1994 年以来长期停滞的纪录。
同时他还将R(4,15) 下界刷新至 160,成果直接超越谷歌 DeepMind 同期 AlphaEvolve 的研究水平。

而且,这次世界级数学突破并没有依赖超级算力集群,仅用 Claude Code、Codex+1 台 CPU 服务器就完成全部攻坚,成果已全量开源。
拉姆齐数
如果外星人威胁地球,要求我们给 R (5,5) 的精确值,人类应动用所有算力;但如果要的是 R (6,6),我们不如直接开战。
数学巨匠保罗・埃尔德什的这句调侃,直接说明了拉姆齐数有多难缠。

作为组合数学的核心难题,拉姆齐数本质上是在寻找“无序中必然出现秩序”的临界值。
R (3,17) 下界用生活化的派对问题来理解就是:
无论派对上的人如何随机社交,总能找到 3 个互相认识的小圈子(对应数学中的三角形结构),或是 17 个完全互不相识的人(对应“17 点独立集”),这个最小的派对人数,就是 R (3,17) 的精确值。
但求解这个数值远比想象中艰难。
如今 R (5,5) 的精确值仍卡在 43-48 的区间,算出 R (6,6) 还不如向外星人开战……
而 R (3,17) 自 1994 年被数学家 Wang-Wang-Yan 锁定在 92 后,全球顶尖团队轮番攻关,却始终无法撼动这一数字,渐渐成了横跨 32 年的学术僵局。
而且,它的研究成果直接关联图论、算法设计、网络优化等关键领域,从人工智能到通信网络,都能找到它的应用影子,是数学与计算机科学交叉领域的香饽饽。
怎么做到的?
王宜平的突破,始于一次“反其道而行之”的尝试。
在此之前,传统方法的思路是:
先构造一张没有三角形的图,再慢慢压缩其中的独立集规模。
但无论算法如何优化,在 92 个顶点的限制下,独立集始终停留在 18 个,怎么也压不到 16 个的目标。
但王宜平换了一条逆向思路:
放弃零三角形的初始要求,先构建一张独立集不超过 16 个但含少量三角形的图,再通过 AI 的复合删除修复策略,一点点删掉三角形,同时修复过程中新生的独立集冲突。
他融合了了 karpathy autoresearch、AlphaEvolve、拉姆齐数综述等成熟思路,搭建了一套 AI 自我迭代进化的研究框架,让 AI 可以不断沿用过往的优质探索结果,往更深、更细的方向持续深挖。
系统会同时启动多组独立智能体,用不同算法、不同初始参数并行搜索图结构空间,有效避免探索陷入局部无解;
全程以结构冲突数为评判标准,把每一次优化出的更好图谱保存下来当作基础模板,后续迭代都在已有优质成果上继续打磨,靠不断沉淀积累逼近最优解,这也是其和谷歌 AlphaEvolve 最大的区别;
而且所有推演得出的结果都会通过专业核验工具严格筛查,精准校验图中是否存在违规三角形、是否超出独立集数量上限,每一个关键突破节点都有完整核验记录,从根源上保证研究结果严谨可信。

这套 AI 框架从最初仅含 12 个三角形的图结构出发,像闯关升级一样逐步推进。
12 个、11 个、10 个……每一步都要平衡“删三角形”和“控独立集”的矛盾,最终在 92 个顶点上,成功构造出一张完美的图——
既没有三角形,也不存在 17 个互不相连的点,直接证明了 R (3,17)≥93。
这套框架还顺带攻克了 R (4,15) 的下界难题,将其从 159 提升至 160。
而就在今年,谷歌 DeepMind 的 AlphaEvolve 也只做到了复刻 R (3,17) 的旧下界 92,没能实现实质性突破。
作者介绍
王宜平本科毕业于浙江大学竺可桢荣誉学院,获计算机科学与数学双学位。
现在是华盛顿大学保罗·G·艾伦计算机科学与工程学院博士生。

他现任 xAI 技术团队成员,并曾在微软实习。长期研究目标是开发安全、可扩展的超人类 AI 系统,推动科学进步。
近期研究聚焦于大语言模型的推理强化学习以及 AI for Math,同时也涉猎多模态和机器学习理论等领域。
One More Thing
除此之外,中科大马杰教授、清华申武杰、中科大谢晟捷团队在拉姆齐数研究中实现 78 年来首次指数级理论改进。
就在前几天,相关成果发表于数学四大顶刊之一《Inventiones Mathematicae》(《数学新进展》);
从宏观数学规律层面,显著拔高了拉姆齐数下界的增长阶数,相当于给这类问题的求解划定了更高的理论天花板。

参考链接:
