Hinton最新警告:杀手机器人或将带来更多战争,最大担忧是AI接管人类

  新智元报道

  编辑:元宇

  近日,「AI 教父」Geoffrey Hinton 在一次采访中再发预警:「杀手机器人」「无人机」等致命自主武器的兴起,正在让战争变得更易发动。Hinton 认为 OpenAI、Anthropic 等许多 AI 公司在 AI 安全方面做得都不够。他还谈到了贪婪、自负等人性弱点,对 AI 研究可能带来的潜在风险。

  Couric:如果你能把奥特曼和马斯克请到同一张桌子上,你会对他们说什么?

  Hinton:我会说:你们很清楚,你们正在开发的东西,很可能把人类毁灭掉。

  近期,「AI 教父」Geoffrey Hinton,在与《Next Question》主持人 Katie Couric 对话时,直言不讳地说出了内心对 AI 安全的忧虑。

  Geoffrey Hinton 与《Next Question》主持人 Katie Couric 对话

  实际上,这已经不是他第一次为预警 AI 风险而发声。

  2023 年 5 月,时任谷歌首席 AI 科学家的 Hinton 从谷歌辞职,扮演起「AI 吹哨人」的角色。

  自此,他一直在关注和呼吁人类要警惕 AI 过快发展带来的风险,还表示后悔自己未能更早地考虑 AI 的安全问题。

  近日,Hinton 再次发出警告——AI 正在改变战争方式,让战争变得更容易:

  自主武器,意味着「死掉的机器人」,而不是「裹尸袋」。

  Geoffrey Hinton 称,杀手机器和无人机正在降低战争的人道成本

  Hinton 表示,「杀手机器人」「无人机」等致命自主武器的兴起,正在让发动战争变得更容易。

  AI 让发动战争变得更容易

  「杀手机器人」参与战争,将会代替许多原本可能在战场中死掉的人。

  这本应该是件好事,但恰恰也是最让这位「AI 教父」恐惧的事情。

  这样一来,发动一场战争的成本会更低,战争就更容易爆发了。

  Hinton 表示,「杀手机器人」的兴起不会让战争更安全,相反它会通过降低作战的人力与政治成本,使战争更容易爆发。

  这使得一个富国想入侵一个穷国,变得更容易了。

  因为原来能够阻战争发生的,就是这些富国的公民在战场上被装进裹尸袋。

  但是,AI 改变了这一点,「如果有致命自主武器,回来就不是死人,而是死掉的机器人。」

  在 Hinton 看来,这种转变,可能会怂恿政府发动战争,同时也会让军火商大发其财。

  「这对军火商来说简直太棒了,因为这些机器人更换起来很昂贵」。

  除了降低战争成本,Hinton 认为 AI 已经在重塑战场,改变战争的方式。

  比如,在现实战争中,已经通过 AI 驱动的无人机、无人系统改变了战场,颠覆了传统战争形态和战争手段。

  甚至有人说,未来战争中,数据的作用将超越弹药。

  以现实战争举例,现在一架 500 美元的无人机,就可以摧毁一辆价值数百万美元的坦克。

  而且,AI 技术也让传统硬件逐渐显得过时,比如它使载人战斗机变成一个愚蠢的主意:

  「如果你能在战机里装上 AI,AI 可以承受更高的过载——而且不用过多担心人员伤亡。」

  AI 接管将是人类最大的担忧

  与 AI 对未来战争带来的影响相比,Hinton 更担心人类被 AI 接管的风险。

  2024 年,Hinton 在获得诺贝尔物理学奖时表示,希望人们可以更认真地看待他关于 AI 以及其未来角色的观点。

  而经过这些年,Hinton 也逐渐把他有关 AI 担忧的思考,更广泛地传开了。

  当谈到当下 AI 的风险,Hinton 表示:

  我的主要担忧,并不是恶意行为者在短期内滥用 AI 的风险(那当然也非常严重),而是更长期的风险——AI 本身接管。

  这种风险,主要来自科学家们对 AI 将大幅超越人类智力的预测。

  Hinton 谈到了要避免被 AI 接管的唯一方法,就是让我们构建的那些超级智能 AI,根本「不想」接管。而实现这一点的技术,和让 AI 更聪明的技术有些不同。

  在这个问题上,更容易取得国际间的合作。因为各国不会分享如何做出最聪明 AI 的办法,但却会在「如何让它不想取代人类」这件事上合作。

  AI 会取代我们的工作吗?

  除了战争,Hinton 关于 AI 的另一个警告,是它几乎可能在所有领域,取代大量的工作岗位。

  这个问题所带来的挑战,并非在技术,而是在社会治理上:

  「如果我们的政治体系足够公平,当 AI 大幅提升生产率时,本应当使每个人都能得到更多商品和服务。」

  当谈到大学生未来的职业选择,Hinton 认为 AI 会很快替换掉呼叫中心这类低薪、培训差的工作。

  此外,还有律师助理、程序员等白领岗位上的一些初级岗位工作也可能被替代(一些能设计复杂系统的顶尖程序员仍然会吃香)。

  与这些岗位相比,相反一些需要人手灵巧度的工作,比如水管工更不容易取代(当然,最终机器也会变得灵巧,所以十年、二十年后,连这个可能也不安全了)。

  Hinton 认为相比较律师、会计等知识型岗位,水管工的风险要小得多

  令人有点沮丧的是,Hinton 还提到,AI 甚至也在替代一些需要高情商和人际沟通的工作,比如护士、医生,原因是 AI 会比人类更具同理心:

  「如果让人们分别和医生以及一个 AI 互动,再问他们谁更有同理心,AI 的评分更高。」

  在访谈中,Kittie Couric 还谈到了「全民基本收入」(UBI),是否有助于应对大规模工作被 AI 取代的问题。

  UBI 是近几年一些国家公共政策讨论中的热点议题,是为社会中的每个人,提供兜底的收入保障。

  Hinton 认为它虽然治标不治本,但是一个很好的「创可贴」。

  UBI 可以让人不至于挨饿、付得起房租,但它解决不了价值观丧失的问题。

  因为对于很多人来说,自我价值感和他们的工作紧密相关。一旦失业,这种价值感就会丧失。

  AI 常见的一个应用场景,是在医疗科技领域。Hinton 也提到了 AI 在医疗和疾病领域相关的科学突破。

  比如,AI 可以通过解读眼底图像,预测心梗发病几率,这在以往是做不到的。

  此外,AI 还可以在新药设计上发挥很强的关键作用。

  Hinton 谈到 DeepMind 团队提出了从蛋白质序列预测其折叠结构的方法,还分拆出了一家专做新药设计的公司。

  他认为,未来一两年,或许更长一点时间内,我们会迎来一系列更好的药。

  对 AI 未来的乐观展望

  Hinton 始终提醒人类,要注意防范被自己所创造出来的、更聪明的 AI 接管的风险。

  以 OpenAI、谷歌为代表的 AI 公司,是 AI 技术发展背后的重要推手,但在 Hinton 看来,没有哪家公司在这一问题上是做得足够的:

  「Anthropic 是一些离开 OpenAI 的人创办的,因为他们认为后者在安全研究上的投入太少。但 Anthropic 还是可以做得更多;尽管 OpenAI 强调是以安全发展 AI 为目标,但他们越来越关心让 AI 更聪明,而不是如何让它更安全。

  Hinton 揭示了这些 AI 公司在安全问题上滑稽、矛盾的一面:

  奥特曼在很大程度上转向了「快点发展,别太注意安全」;马斯克在起诉奥特曼,说他忘了「安全发展 AI 的初心」。但马斯克在发展 AI 上,对安全也并不上心。

  Kittie Couric 还问了 Hinton 一个非常有意思的问题。

  Kittie Couric:如果你能把奥特曼和马斯克请到同一张桌子上,你会对他们说什么?

  Hinton:我会说:你们很清楚,自己开发的东西有很大概率把人类灭掉。你们私下也承认这点。你们应该投入更多精力,用能确保安全的方式来开发。

  Kittie Couric:你觉得是什么阻止了他们?是贪婪吗?

  Hinton:基本上是的。他们想靠 AI 赚大钱,还有「做出比人类更聪明的东西」的兴奋感。但这非常危险。

  对话谈还到了贪婪、自负等人性弱点,对 AI 研究可能带来的潜在风险。

  Hinton 认为年轻的 AI 研究者,比年长者更能理解 AI 的力量和潜在的负面效应,他们也更能意识到 AI 接管可能带来的风险。

  一个积极的信号是:当谈到对 AI 未来的展望时,Hinton 表示他比几周前更乐观了。

  Hinton 提出为 AI 植入「母性本能」,这是他最近看到人类与 AI 共存的一丝希望

  这一转变,主要是因为他关于的思考,一种尝试 AI 植入类似「母性本能」的新思路:

  婴儿之所以能控制母亲,是因为很多东西被「进化写进了」母亲身上,母亲真心希望孩子成功,会尽一切可能确保孩子成功。我们希望 AI 也会如此。

  「AI 母亲」这一思考,重塑了人类如何与 AI 共存的思路,不是想着支配它们,而是为它们植入「母亲本能」。

  这一设想,也颠覆了大多数人的想象:

  在 AI 面前,我们不再是「智慧顶点」(母亲),而是婴儿。

  参考资料:

  https://www.businessinsider.com/geoffrey-hinton-ai-autonomous-weapons-war-robots-drones-military-effect-2025-8%20

  https://podcasts.apple.com/rs/podcast/the-godfather-of-ai-dr-geoffrey-hinton-on/id1134154895?i=1000723684133%20

  https://omny.fm/shows/next-question-with-katie-couric/the-godfather-of-ai-dr-geoffrey-hinton-on-ai-s-existential-risk