数学界尘封32年的拉姆齐数经典难题被打破!
浙大校友王宜平借助自研AI框架ScaleAutoResearch-Ramsey,成功将拉姆齐数R(3,17) 下界从92提升至93,终结了自1994年以来长期停滞的纪录。
同时他还将R(4,15) 下界刷新至160,成果直接超越谷歌DeepMind同期AlphaEvolve的研究水平。

而且,这次世界级数学突破并没有依赖超级算力集群,仅用Claude Code、Codex+1台CPU服务器就完成全部攻坚,成果已全量开源。
拉姆齐数
如果外星人威胁地球,要求我们给R (5,5) 的精确值,人类应动用所有算力;但如果要的是R (6,6),我们不如直接开战。
数学巨匠保罗・埃尔德什的这句调侃,直接说明了拉姆齐数有多难缠。
作为组合数学的核心难题,拉姆齐数本质上是在寻找“无序中必然出现秩序”的临界值。
R (3,17) 下界用生活化的派对问题来理解就是:
无论派对上的人如何随机社交,总能找到3个互相认识的小圈子(对应数学中的三角形结构),或是17个完全互不相识的人(对应“17点独立集”),这个最小的派对人数,就是R (3,17) 的精确值。
但求解这个数值远比想象中艰难。
如今R (5,5) 的精确值仍卡在43-48的区间,算出R (6,6)还不如向外星人开战……
而R (3,17) 自1994年被数学家Wang-Wang-Yan锁定在92后,全球顶 尖团队轮番攻关,却始终无法撼动这一数字,渐渐成了横跨32年的学术僵局。
而且,它的研究成果直接关联图论、算法设计、网络优化等关键领域,从人工智能到通信网络,都能找到它的应用影子,是数学与计算机科学交叉领域的香饽饽。
怎么做到的?
王宜平的突破,始于一次“反其道而行之”的尝试。
在此之前,传统方法的思路是:
先构造一张没有三角形的图,再慢慢压缩其中的独立集规模。
但无论算法如何优化,在92个顶点的限制下,独立集始终停留在18个,怎么也压不到16个的目标。
但王宜平换了一条逆向思路:
放弃零三角形的初始要求,先构建一张独立集不超过16个但含少量三角形的图,再通过AI的复合删除修复策略,一点点删掉三角形,同时修复过程中新生的独立集冲突。
他融合了了karpathy autoresearch、AlphaEvolve、拉姆齐数综述等成熟思路,搭建了一套AI自我迭代进化的研究框架,让AI可以不断沿用过往的优质探索结果,往更深、更细的方向持续深挖。
系统会同时启动多组独立智能体,用不同算法、不同初始参数并行搜索图结构空间,有效避免探索陷入局部无解;
全程以结构冲突数为评判标准,把每一次优化出的更好图谱保存下来当作基础模板,后续迭代都在已有优质成果上继续打磨,靠不断沉淀积累逼近最 优解,这也是其和谷歌AlphaEvolve最 大的区别;
而且所有推演得出的结果都会通过专业核验工具严格筛查,精准校验图中是否存在违规三角形、是否超出独立集数量上限,每一个关键突破节点都有完整核验记录,从根源上保证研究结果严谨可信。

这套AI框架从最初仅含12个三角形的图结构出发,像闯关升级一样逐步推进。
12个、11个、10个……每一步都要平衡“删三角形”和“控独立集”的矛盾,最终在92个顶点上,成功构造出一张完 美的图——
既没有三角形,也不存在17个互不相连的点,直接证明了R (3,17)≥93。
这套框架还顺带攻克了R (4,15) 的下界难题,将其从159提升至160。
而就在今年,谷歌DeepMind的AlphaEvolve也只做到了复刻R (3,17) 的旧下界92,没能实现实质性突破。









