OpenAI五级AGI战略遭吐槽,命名不清、逻辑混乱,本质只是空洞营销?

图片

  新智元报道  

  编辑:耳朵乔杨

  OpenAI 的最新 AGI 布局——5 级路线图再被吐槽是营销手段,不仅对「超级智能」命名和定义存在模糊之处,5 个级别的层次结构也被诟病「逻辑混乱」?

  根据彭博社上周报道,OpenAI 全新的 AGI 路线图释出。公司内部将 AI 能力划分为 5 个等级,并认为当前 AI 正处于其中的 L1 阶段。

图片

  简而言之,这个 5 级路线图的大致内容是:

  第一级:聊天机器人,具有对话语言的人工智能;

  第二级:推理者,人类水平的问题解决;

  第三级:代理者,可以采取行动的系统;

  第四级:创新者,可协助发明的人工智能;

  第五级:组织者,可以完成组织工作的人工智能。

  OpenAI 引入结构化量表来绘制 AGI 的进展情况,这的确是人工智能领域向前迈出的重要一步。

  把通往 AGI 之路分为五个不同的级别,为衡量 AI 进步和设定基准提供了清晰的框架。

  这 5 个里程碑,不仅能够让 OpenAI 跟踪自身进展,还能够树立通用标准,供其他开发人员借鉴参考。

  OpenAI 称,这种划定方法是面向未来的,为人工智能系统的透明化发展奠定了基础,同时确保迈向 AGI 的每一步都是可衡量和负责任的。

  质疑声迭起

  乍一听,这个「五步走战略」把 AGI 的未来勾画的清清楚楚,但这份战略报告却引起了许多质疑。

  为了从 L1 迈向 L2,OpenAI 正在进行一个一个代号为「草莓」(Strawberry)的项目中,主要目的是使模型能够提供高级推理能力。

  老对家马斯克也是密切关注,第一时间赶来嘲讽。

图片

  其实,早在 OpenAI 发布 Sora 时,官方的技术博客将 Sora 描述为「世界模拟器」,就引起了许多人的吐槽和互喷。

图片

  目前几乎所有的 LLM 仍是「大力出奇迹」的产物,烧钱堆算力,很大程度上都是知其然而不知其所以然。

  Facebook 首席人工智能科学家 Yann LeCun 就认为 LLM 不具备像人类一样的推理能力。

  他的经典名言是「人工智能可能还不如你家的猫聪明」。他预测,当前的人工智能系统距离达到某种人类的感知能力还需要几十年的时间。

  而且,人工智能神经网络的设计初衷就是想要模拟人类神经网络,但人脑结构和功能的探索尚且处于初级阶段,这难道不是在黑匣子里开盲盒?

图片

  也有网友表示,这可能是 OpenAI 给投资商画的饼,我们离 AGI 就差 4 步哦,听上去的确让人心潮澎湃。

图片

  超级智能的命名错误?

  还有一些批评的声音集中在 OpenAI 对超级人工智能的定义上。

  超级人工智能(ASI)的概念本身就存在争议,因为它没有明确的、被广泛接受的定义。

  简单地将某个等级定义为超级人工智能可能引发误解,使人们对 AI 的能力和潜在影响产生不切实际的期望或担忧。

  有网友指出,5 级路线图的定义和分类就并不准确,甚至具有误导性。

  首先,考虑到 OpenAI 一直标榜自己的目标是「超越人类」的 ASI,那就至少应该在更高级别上讨论「智能」,而不是仅仅是停留在「人类级别」这种描述。

  根据 Nick Bostrom 公认的定义(虽然并不完美),超级智能是「在许多非常普遍的认知领域,远远优于当前人类最优秀思维的智能」,包括科学创造力、一般智慧和社交技能。

图片

  哲学家 Nick Bostrom 撰写的《超级智能:路径、危险、策略》,出版于 2014 年

  在速度方面,Bostrom 对超级智能的定义是「一种与人类思维相似但速度更快的智能」。

  这大致对应路线图中的 L2 等级,也就是 OpenAI 宣称他们「即将实现」的水平。

  想想看,「有基本的问题解决技能且接受过博士级别教育」的 AI 系统,即使不借助外界工具,思维速度也肯定可以超过人类平均水平。

  更何况,L2 所描述的是一个有超人类记忆能力和多领域专业知识的 AI,推理速度达到「超人类」就更不在话下。

  Reddit 上也有网友表达了类似的观点。

图片

要知道,发达国家中拥有博士学位的人不到2%,所以 GPT-5 很可能具有比 95% 的人类更强的推理能力。我猜这可以用来替代相当数量的人类劳动。

L3 对许多人来说就是通用人工智能(AGI),L5 则是超级人工智能(ASI)了

  此外,关于 L4 的定义:「具有创新能力的 AI,可以提出人类没有的创意」,听起来已经是一种高质量的超级智能。

  L5 则被称为「组织」,可能是指用多部件的、由 AI 控制的系统来取代整个人类组织,也就是 Bostrom 所说的「通过聚合大量较小的智能来实现卓越性能的系统」。

  这又回到了「取代人类」而非「超越人类」的层面。他们仅仅是把「超级智能」定义为与人类或人类组织有同等能力的系统,而不是远远超过。

  因此,5 个级别不仅命名错误,而且从根本上混淆了「超级智能」的概念。

  这些不能称之为通往 AGI 的 5 大级别,它们在概念上仅仅是可行的 AI 应用、技术路径或结果。

  5 个级别的顺序是否合理?

  说完了概念和定义上的混淆,我们再来看看,这样安排 5 个等级的顺序是否合理?

  根据 OpenAI 自己的表述,这 5 种「级别」或「阶段」可以用于跟踪 AGI 的进展。

  这不仅表明,OpenAI 清楚地了解每个不同阶段的要求,而且还指明路线图,各个级别的 AI 将按从 L1 到 L5 的指定顺序实现。

  这两个方面似乎都令人难以置信。至少,按照人类能力的发展程度,这种顺序就是不合理的。

图片

  例如,肯定存在一些人类「Agent」无法执行第 L2 级任务,也就是博士级个人能够独立完成的任务。

  但 L4 级任务:协助人类创新,同样是很多人做不到,但博士水平可以完成的。

  那么,为什么一定要把 L4 放在 L2 之后?

  类似的,根据 L5 的要求,AI 需要发展出协调与合作的能力,才能替代组织。

  但这种能力并不是于高智力人才的专利,即使所有成员都没有博士学历,也仍然可以经营杂货店、工厂或出租车公司等各种组织。

  而大量的例子也表明,有些高学历的人不具备生活自理能力,更不用说组织管理能力。这就又让 L5 降到 L2 之下了。

  最明显的漏洞还是关于 L3 agent 的定义,因为一些独立运作的 Agent 已经在没有特定监督的情况下执行人类工作了。

  目前看来,这些系统运行失败部分是因为底层系统的限制,部分是因为这些系统需要更好的结构,但应该不是受限于 AI 的智能水平。

  因此,现实情况是,OpenAI 宣称正在努力实现 L2 的同时,L3 已然存在了。

  我们也不清楚人工智能在成功独立工作(L3)之前或之后是否能够有效创新(L4)。

  仔细想想,L3、L4 和 L5 之间,其实并没有很清晰严明的次序关系。

  因此,我们也不知道 GPT-5 在发布时,会不会是一个有 L5 但没有 L4 的系统,即「无法创新的组织」。

  或者是,达到第 L3 但没有 L2 的推理能力,即没有博士学位的 agent?

  还是会有 L4 但没有 L3,即一个无法持续独立工作的创意者?

  当然,所有这些反对意见都有可能被 OpenAI 预判了。

  但正如网友所说,他们所谈论的级别似乎更有可能是一种营销技巧,旨在推销他们的系统将是可预测的。

  毕竟,资本最喜欢稳定性和可控性。

  参考资料:https://www.lesswrong.com/posts/JycQ8dZwAKcgfbWig/misnaming-and-other-issues-with-openai-s-human-level