30年从未赢过!AlphaGo之父:1997年输棋,2026年输命

  新智元报道

  编辑:倾倾

  OpenAI 大神 Noam Brown 刚发了一份碳基生物的《死亡通知书》,直接把硅谷和推特看炸了。2026 年,当 AI 不再是你的工具,而是你的老板时,你准备好失业了吗?

  1997 年,《纽约时报》曾引用普林斯顿天体物理学家 Piet Hut 的神预言:

  电脑要想战胜人类围棋手,可能需要 100 年,甚至更久。

  结果呢?仅仅过了 19 年,AlphaGo 就把李世石按在地上摩擦。

  这种盲目自信的循环,直到今天还在继续。

  就在几小时前,OpenAI 的研究员 Noam Brown 甩出了一张时间表。

  看完这张图,硅谷的精英们沉默了,推特的评论区炸锅了。

  这不是技术进化史,这是碳基生物的《死亡通知书》。

  人类最擅长的游戏:无赖式「移动球门」

  直说吧,人类最擅长的从来不是围棋或数学,而是「耍赖」。

  就像这样——

  每当 AI 攻克一个领域,我们立马改口:「切,那只是暴力计算,不是真正的思维」。

  这招精神胜利法,用了 40 年,现在终于不好使了。

  1987 年:笑 AI 不懂「规划」

  当时的舆论普遍认为,国际象棋不仅是计算,更需要深远的战略规划。

  人类相信,机器只能看几步,而人类能看到「局」。

  直到 1997 年深蓝击败卡斯帕罗夫,我们被迫改口:大家被迫改口:「好吧,象棋只是算术,围棋才是艺术。」

  1997 年:吹 AI 没有「直觉」

  这是人类坚守最久的阵地。

  围棋的落子讲究「棋感」,那是玄学,是艺术,是不可言说的美学,是人类灵魂的护城河。

  结果大家都知道了。AlphaGo 不仅赢了,还下出了人类几千年来从未想过的招法。

  不管是「玄学」还是「棋感」,在 AI 眼里不过是高维度的概率分布。

  你引以为傲的直觉,只是算力不够时的脑补。

  2016 年:赌 AI 学不会「诈唬」

  这曾是心理学家的最后防线。

  德州扑克这种不完全信息博弈,不仅要算牌,还得会骗人、会偷鸡。机器懂个屁的人心?

  Noam Brown 亲手埋葬了这个幻想。

  他搞出的 Pluribus 在六人桌德州扑克里,把顶尖人类牌手骗得底裤都不剩。

  那一刻大家才惊恐地发现:连「骗人」这种独属于人类的狡黠,AI 都比我们更专业。

  2023 年的裂痕:当「逻辑」不再神圣

  如果说下棋打牌是「雕虫小技」,那创造力和逻辑推理总该是人类的自留地了吧?这里可是数学家和艺术家的圣殿

  但 Noam Brown 的时间表,冷酷地记录了这两座大厦的崩塌:

  • 2019 年:AI 无法创造艺术? Midjourney 和 Sora 出来后,插画师和导演已经在天台上排队了。

  • 2023 年:AI 做不了奥数? 就在数学界还在争论 LLM 是不是「只会背书的鹦鹉」时,2024 年 DeepMind 的 AlphaProof 在 IMO 拿到了银牌。

  这可不是简单的死记硬背,IMO 题目需要极富创造性的辅助线构造和严密的逻辑推导。

  曾经我们认为,机器只能做加减乘除,不能做数学证明。

  现在的现实是:机器不仅能做证明,还能在最变态的奥数赛场上,和全球最聪明的人类大脑硬刚。

  Judgment 是人类独有的?做梦!

  Noam Brown 把这个节点定在 2026 年,绝不是危言耸听。

  在此之前,AI 更像是你的「超级实习生」。它帮你写代码、画图、做表,但最后还得你来拍板。

  什么是「Judgment」?它是 CEO 决定裁员还是扩张的魄力;是 VC 在一堆烂项目里押注下一个字节跳动的眼光。

  我们一直以为这是只有人类才能掌握的「灰度艺术」。

  现在,随着 OpenAI Operator 等 Agentic AI 的爆发,AI 正在从「Chatbot」进化为「Boss」。

  知名 AI 研究者 Nikolai Yakovenko 一针见血:

  只要判断力和品味可以被量化,AI 就会瞬间秒杀人类。或者更残忍点——它会重新定义什么是「好品味」。

  所谓的商业直觉或审美,在 AI 眼里只是一堆尚未被标记的数据。

  只要你能给出反馈信号,AI 就能通过强化学习,找到那个你根本想都想不到的最优解。

  最后的避难所:这种「胜利」有点凄凉

  面对这张咄咄逼人的时间表,评论区有个高赞反驳,成了人类最后的倔强:

  AI 唯一永远无法做到的事情,就是替你爱你的孩子。

  这句话听起来很温暖,但细想之下,却透着一股彻骨的寒意。

  当我们面对智力挑战,不敢谈逻辑、不敢谈创造、不敢谈决策,只能哆哆嗦嗦地躲进「爱」这个生物学避难所时,说明我们在智力维度上已经全面投降了。

  这不叫防守,这叫物种降维。

  这就好比马车夫对汽车司机喊:「你永远无法体会挥舞鞭子的快感!」

  司机点点头,一脚油门绝尘而去,连尾灯都看不见。

  回顾这 40 年,我们犯的最大错误,就是把我们目前还不理解的计算,傲慢地命名为「灵魂」。

  1987 年,我们把搜索树叫「规划」;

  1997 年,我们把模式识别叫「直觉」;

  2026 年,我们将把多目标权衡叫「决策」。

  Noam Brown 这份清单,就是一份无情的「人类祛魅指南」。它一层层剥掉人类的特殊性,直到今天,剥到了内核——决策权。

  2026 年,把决策交给 AI,就像当年把开方计算交给计算器一样自然。

  我们终将习惯这一点,就像习惯没有尾巴一样。

  唯一的问题是:当手脚被替代,连大脑的判断都被托管后,你打算用什么证明自己还在握着命运的方向盘?

  或者说,在这个被算法接管的世界里,你,还重要吗?

  参考资料:

  https://x.com/polynoamial/status/2015874457307644058