Nature刊文:“open”AI的实际作用非常有限

  一贯坚持开源的 Meta 也会被业内人士狂喷。

  开放源代码促进会负责人 Stefano Maffulli 就曾公开斥责 Meta,称用“open”描述 Llama 模型,是在混淆用户和污染“open”。

  在大众的认知中,“open”通常意味着透明、共享和合作,尤其是在开源软件领域。然而,在人工智能(AI)领域,“open”一词却带来了许多模糊性和争议。事实上,AI 行业资源高度集中,“open”的真正意义和影响值得深入探讨。

  那么,我们究竟该如何理解“open”呢?

  在一篇发表在权威科学期刊 Nature 上的文章中,科学家们系统地剖析了“open” AI 的定义、实质特征与局限性

  “‘open’ AI 这个术语被广泛使用,但其实际涵义并不明确。我们发现,当代 AI 系统的开发和应用依赖于高度集中的资源,即便标榜“open”的 AI,其透明性、可重用性和可扩展性仍然受到资源垄断的限制。”研究人员在文章中写道。

  他们通过分析“open” AI 的当前生态,探讨了其对资源共享、技术创新和市场竞争等的深远影响,同时呼吁对其经济政治背景进行更深入的反思和措施介入。

  什么是“open” AI?

  AI 的定义自其诞生以来就充满争议。在 70 多年的历史中,AI 这个词被应用于各种不同的技术方法,与其说是一个严谨的技术术语,不如说是一种营销概念和对未来愿景的表达。

  近年来,AI 的定义倾向于描述基于概率的大型机器学习系统,尤其是生成式 AI,如大语言模型(LLM)。这些系统因其生成自然语言文本或图像的能力而广受关注。

  类似的,“open”这一概念也在 AI 领域被频繁误用和扩展。传统意义上的“open”源于开源软件运动,具有透明性、可重用性、公平性的理念特征,但将这些理念直接应用于现代 AI,特别是生成式 AI 时,面临着以下挑战:

  • 模型复杂性与黑箱性:现代 AI 系统由庞大的神经网络组成,仅公开模型权重和代码,不足以完全揭示其运作机制。

  • 资源依赖性:这些模型的开发和训练需要昂贵的计算力和数据,这些资源通常由少数大公司控制。

  • 技术应用的不对等性:“open”的模型可能会被滥用,而原开发者在这些问题上难以施加影响。

  文章指出,当前一些所谓的“open AI”模型仅提供部分模型权重或受限制的 API,这种做法更接近“开放洗白”(openwashing),与真正的 open 相去甚远。

  同时,文章强调,即便 AI 系统实现了更大的透明性或可用性,也不意味着行业权力格局会因此发生显著变化。AI 开发的资源成本(如计算力和数据获取)仍集中于少数大企业手中,使得市场竞争更加不均衡。

  “open”AI 的优势与局限

  文章作者也对“open”AI 带来的三个关键优势进行了逐一剖析,并客观阐明了其潜力与局限性,指明尽管“open”AI 提供了关键优势,特别是在资源共享、技术创新和数据使用方面,但这些优势并未能真正打破由少数大公司主导的行业格局。

  1. 透明性

  透明性是“open”AI 最受关注的特性之一。一些 AI 模型会公开训练数据、权重或相关文档,允许研究人员验证系统行为,但透明性本身无法完全解答系统的复杂行为。例如,大模型的“涌现”(emergent)往往难以预测,仅仅知道模型权重或代码并不能全面理解其运行原理。因此,文章呼吁理性看待透明性的价值,特别是在 AI 系统的行为责任问题上。

  2. 可重用性

  “open”AI 通常允许第三方在已有的模型或数据基础上进行再利用。公开许可的数据和模型权重,以及经常使用传统的开源许可来提供这些数据,为“open”AI 将对市场竞争产生固有积极影响的说法提供了依据。

  然而,市场访问仍然是一种受限制的资源。即使是有资源的参与者,他们拥有创建大规模模型的资金、人才和数据,也不总是有明确的方法来部署这些模型或确保投资回报,这是由于市场访问存在重大瓶颈。

  3. 可扩展性

  “open”AI 的可扩展性表现在其支持用户基于基础模型进行微调,从而将模型适配于特定领域或任务。这是公司支持“open”AI 的关键特征,在很大程度上是因为,“扩展”现成模型的工作也为那些可能想要重新利用微调模型的人提供了免费的产品开发。

  扩展“open”AI 模型意味着从事这项工作的人不会从一张白纸开始。他们采用了一个已经经过艰苦且昂贵的训练的大模型,并调整其参数,通常在进一步的数据上进行训练,通常是专门的数据,以适应特定领域或任务的性能。

  资源与权力分配问题

  尽管“open”AI 这个概念听起来充满潜力,但 AI 系统的开发和应用依赖于一系列高度集中的关键资源,包括模型、数据、劳动力、算力和开发框架。这些资源不仅决定了技术的可用性,也深刻影响着市场竞争和权力分配的格局。

  具体而言,在“open”AI 的讨论中,AI 模型是最直观的焦点。近年来,像 Meta 的 Llama 3 和 BigScience 的 BLOOM 等 AI 模型虽一直在标榜自身“open”,但这些“open”模型的实际作用却非常有限。许多模型仅提供 API 接口,并不能让用户真正了解其内部机制或进行修改。即便是那些较为透明的模型,也依赖于企业独占的训练资源,其他开发者难以复制这些资源,从而无法平等参与竞争。

  在 AI 系统中训练数据同样至关重要,但许多开源模型并未完全公开其训练数据的来源和处理方式,这一不透明极大限制了外界对模型的验证。此外,采集高质量数据往往需要巨大的成本和资源,而这通常只有少数大型企业能够承担,这进一步巩固了它们在行业中的主导地位。

  在 AI 领域,除了模型与数据外,劳动力同样是关键资源之一,尤其是训练和开发这些复杂模型的高技能人才。然而大型科技公司不仅掌握着计算能力和数据资源,同时也主导着 AI 研究和开发所需的顶级人才市场。

  与此同时,算力也是一项受垄断的关键资源。AI 训练需要大量的计算资源,而像英伟达这样的企业几乎垄断了高性能 GPU 市场。即使模型或代码被公开,运行这些模型的计算成本依然高昂,导致中小型开发者无法参与竞争。一些计算框架(如英伟达的 CUDA)也进一步强化了技术垄断,使得开源模型仍然依赖于特定的计算生态,限制了其实际应用范围。

  此外,在开发框架方面,一些开发框架诸如 Meta 的 PyTorch 和 Google 的 TensorFlow 虽然是开源的,但它们的设计和控制权掌握在少数大公司手中,这些公司不仅定义了技术标准,还通过构建自己的生态系统进一步巩固了市场主导地位。

  总而言之,“open”AI 虽然在透明度与共享方面具有一定价值,但无法单独解决 AI 领域权力集中与资源不平等的问题。当前的开放性讨论更多地被大公司用作规避监管和争夺市场的工具,如果想要真正改变现状则需要有更强有力的措施介入,包括反垄断执法和数据隐私保护,否则仅仅追求开放性不太可能带来多大益处。

  未来,各方应更加关注 AI 的实际影响,而非仅局限于开放与封闭的概念之间,只有开展多维度的政策和技术实践才能构建出更公平、更负责任的 AI 生态系统。

  整理:阮文韵

  如需转载或投稿,请直接在公众号内留言