ChatGPT爆火,LeCun心态崩了!称大语言模型是邪路,Meta模型3天惨遭下线

  新智元报道  

  编辑:编辑部

  最近,LeCun 连续发推,舌战各位推友,疯狂 diss 大语言模型是邪路,也为自家匆忙下线的 Galactica 酸了一把 ChatGPT。而 LeCun 态度的大反转,也让曾经的对头马库斯喜出望外。不仅频频转发 LeCun 推文,还高调宣布两人的‘世纪大和解’。

  这两天,图灵奖得主 Yann LeCun 心态有些崩了。

  自从 ChatGPT 大火之后,微软凭着 Open AI 腰板挺得很直。

  被啪啪打脸的谷歌,也不说什么‘声誉风险’了。

  所有旗下的语言模型,无论是 LaMDA,还是 DeepMind 的 Sparrow,以及 Apprentice Bard,是能加快的加快,能上架的上架。然后再狂投近 4 亿美元给 Anthropic,想赶快扶出自己的 Open AI。(微软有的我也要)

  然而,有一个人看着微软谷歌各领风骚,却只能急得原地跳脚。

  这个人就是 Meta 的首席 AI 科学家——Yann LeCun。

  他在推特中十分意难平:‘ChatGPT 满嘴胡诌,你们却对它如此宽容,但我家的 Galactica,才出来三天,就被你们骂到下线了。’

  是谁酸到了,我不说

  作为深度学习三巨头之一、图灵奖得主,LeCun 的一举一动,都十分引人注意。

  1 月 27 日,在 Zoom 的媒体和高管小型聚会上,LeCun 对 ChatGPT 给出了一段令人惊讶的评价:‘就底层技术而言,ChatGPT 并不是多么了不得的创新。虽然在公众眼中,它是革命性的,但是我们知道,它就是一个组合得很好的产品,仅此而已。’

  ‘除了谷歌和 Meta 之外,还有六家初创公司,基本上都拥有非常相似的技术。’

  另外他还说,ChatGPT 用的 Transformer 架构是谷歌提出的,而它用的自监督方式,正是他自己提倡的,那时 Open AI 还没诞生呢。

  此番言论一出,公众哗然。Open AI 的 CEO Sam Altman 疑似因为这句话直接取关了 LeCun。

  随后,LeCun 继续舌战众位推友。

  1 月 28 日,LeCun 发推称,‘大型语言模型并没有物理直觉,它们是基于文本训练的。如果它们能从庞大的联想记忆中检索到类似问题的答案,他们可能会答对物理直觉问题。但它们的回答,也可能是完全错误的。’

  2 月 4 日,LeCun 再次发推,更加直白地表示‘在通往人类级别 AI 的道路上,大型语言模型就是一条歪路’。

  他这话一说,网友们可 high 了,纷纷冲到评论区留言。

  LeCun 随后补充说:‘依靠自动回归和响应预测下一个单词的 LLM 是条歪路,因为它们既不能计划也不能推理。’

  ‘但是 SSL 预训练的 Transformer 是解决方案,因为它所处的现实系统有推理、计划和学习的能力。’

  LeCun 举了个有趣的例子:自己在参加播客节目时,展示过 ChatGPT 的回答,它看上去很有道理,却错得离谱。然而主持人在读完 ChatGPT 的回答后,却没有第一时间发现它错了。

  LeCun 对此解释道:‘我们的思维方式和对世界的感知让我们能预想即将发生的事物。这是我们获得常识的基础,而 LLM 并没有这种能力。’

  他再次发推称:‘在我们做出人类级别的 AI 之前,我们需要先做出猫猫/狗狗级别的 AI。而现在我们甚至连这都做不到。我们缺失了十分重要的东西。要知道,连一只宠物猫都比任何大型语言模型有更多的常识,以及对世界的理解。’

  在留言区,有网友毫不客气地怼起 LeCun:‘你说得不对吧,本人亲测,Galactica 的错误率接近 100%,而 ChatGPT 的错误率差不多在 15% 左右。 ’

  对于网友的痛击,LeCun 再次发推表明态度:‘我从来没说大型语言模型没用,其实我们 Meta 也推出过 Galactica 模型,只是它不像 ChatGPT 那么好命罢了。ChatGPT 满嘴胡诌,你们却对它如此宽容,但我家的 Glacatica,才出来三天,就被你们骂到下线了。’

  对此,评论区有网友讽刺道:‘你可真棒棒啊。不如回实验室去,把你说的东西给做出来。’

  LeCun 回复:‘今天可是周日,推特大辩论是我周末最爱的消遣了。’

  自家的模型只活了 3 天

  LeCun 如此意难平,可以理解。

  去年 11 月中旬,Meta 的 FAIR 实验室曾提出一个 Galactica 模型,它可以生成论文、生成百科词条、回答问题、完成化学公式和蛋白质序列的多模态任务等等。

  Galactica 生成的论文

  LeCun 也很开心地发推盛赞,称这是一个基于学术文献训练出的模型,给它一段话,它就能生成结构完整的论文。

  然而,由于 Galactica 满嘴跑火车,它才上线短短三天,就被网友喷到下线。

  LeCun 转发了 Papers with Code 的通知,像个‘大怨种’一样说道:‘现在我们再也不能和 Galactica 一起愉快地玩耍了,你们开心了?’

  虽然 Galactica 的 demo 才上线几天,但当时的用户都感觉如临大敌。

  有网友警示道:想想这个‘写论文’神器会被学生们拿来做什么吧。

  有网友表示,‘Galactica 这个模型的回答错漏百出,充满偏见,可是它的语气却十分自信权威。这太恐怖了。’

  马库斯也表示,这种大型语言模型可能会被学生用来愚弄老师,非常令人担心。

  这熟悉的配方,熟悉的味道,真是令人感慨万千:曾经 Galactica 引起的恐慌和质疑,不正是 ChatGPT 后来所经历吗?

  看着这段历史的重演,却有着截然不同的结局,LeCun 这么酸,确实不能说是毫无来由。

  那为什么 ChatGPT 就能在质疑的声浪中人气愈发高涨,Galactica 却只能惨兮兮地被骂到下线呢?

  首先,Galactica 由 Meta 提出,大公司确实比 Open AI 这样的小初创公司,面临更多的‘声誉风险’。

  另外,Open AI 的产品定位策略十分聪明,从 ChatGTP 的名字就可以看出,它主打的概念是聊天。

  你可以和它聊知识、聊论文,但既然是‘chat’,自然可以放飞一些,谁规定聊天一定要聊‘准确’‘严谨’的东西呢?

  但 Glactica 则不同,它的官方定义是:‘这是一个用于科研的模型。’‘这是一个受过人类科学知识训练的人工智能。您可以将它用作一个新界面,来访问和操作我们对宇宙的知识。’

  这当然就给自己埋了大雷了。

  虽然从技术层面来看,ChatGPT 的确没有太多创新,但是从产品运营的角度,Open AI 这一招,打得十分出色。

  LLM 为什么会满嘴胡话?

  所以,大语言模型为什么会满嘴胡话呢?

  在 LeCun 点赞的一篇文章中,作者做出了解释:‘我曾尝试用 ChatGPT 来帮忙写博客文章,但都以失败告终。原因很简单:ChatGPT 经常会整出很多虚假的“事实”’。

  自然语言不等于知识

  要知道,LLM 是为了在与其他人类的对话中听起来像一个人,而且它们也很好地实现了这个目标。但问题是,听起来自然与评估信息的准确性是两种完全不同的事情。

  那么,这个问题该如何解决呢?

  举个例子,我们可以借助已经对物理学理解进行了编码的机器——物理学引擎:

  • 修改 LLM,使它能识别出自己被问到的是一个关于物理的问题

  • 将问题转换为一个物理场景

  • 用一个物理引擎来模拟这个场景

  • 用文字描述该场景的输出

  而对于‘假论文问题’,我们同样也可以采用类似的修正。

  也就是让 ChatGPT 认识到它被问到了关于科学论文的问题,或者它正在写关于论文的东西,并强迫它在继续之前查阅一个可信的数据库。

  但是请注意,如果真的这样做了,那就意味着你把一种特定的额外‘思维’嫁接到了 LLM 身上。而且还必须考虑到一大堆特殊的情况。这时,人类工程师知道真相来自哪里,但 LLM 却不知道。

  此外,随着工程师们把越来越多的这样的修复方法嫁接在一起,越来越明显的是,LLM 不是一种人工通用智能的形式。

  不管人类的智能是什么,我们都知道它不仅仅是能说会道的能力。

  人类语言的多种用途

  为什么人类要互相交谈,或为对方写下东西?

  其中一个目的是直接传达事实信息,比如‘我在商店’、‘它没有插电’等,但这远不是我们使用语言的唯一原因:

  • 劝说、请求、命令、指示

  • 传达情感

  • 娱乐他人(包括小说、笑话等)、自娱自乐

  • 欺骗(撒谎)

  • 建立关系(与朋友建立联系,调情)

  ……

  看得出来,人类交流的目的是非常多样化的。而且,我们通常也不会在写作的内容中表明它的目的是什么,作者和读者也对这些内容的作用有着不同的认知。

  如果 ChatGPT 想要成为一个值得信赖的事实传播者,它可能要学会如何区分它所训练的人类写作的各种目的。

  也就是说,它将不得不学会不认真对待废话,区分说服和宣传与客观分析,独立判断一个来源的可信度与它的受欢迎程度,等等。

  即使对于人类,这也是一个非常困难的技巧。有研究表明,虚假信息在推特上的传播速度是准确信息的数倍——往往更具有煽动性、娱乐性或看起来很新颖。

  那么问题来了,为什么生成式人工智能在计算机代码上表现很好?为什么编写功能代码的准确性不能转化为传达事实的准确性?

  对此可能的回答是,计算机代码是功能性的,而不是交流性的。以正确的语法编写某段代码会自动执行一些任务,而编写一个语法正确的句子却不一定能达到任何目的。

  此外,我们很容易将计算机代码的训练语料库限制在‘好’的代码上,也就是完美地执行其预期目的的代码。相比之下,要制作一个成功实现其目的的文本语料库几乎是不可能的。

  因此,为了将自己训练成可信赖的事实传播者,LLLM 必须完成一项比训练自己提出功能性计算机代码更难的任务。

  虽然不知道对于工程师来说,建立一个能够区分事实和废话的 LLM 有多难,但这即便对于人类来说,都是一项困难的任务。

  马库斯:世纪大和解

  LeCun 的一大串言论,让大家纷纷疑惑:这不是马库斯会说的话吗?

  热(chi)情(gua)的网友纷纷@马库斯,期待他对此事的锐评。

  苦 GPT 久矣的马库斯自然喜出望外,立刻转发 LeCun 的帖子,还评论道‘100 昏’。

  马库斯还在自己的博客上发文,回顾自己与 LeCun 的‘爱恨情仇’。

  马库斯称,自己与 LeCun 本是多年老友,因为嘴了 Galactica 几句使得两人交恶。

  实际上,马库斯与 LeCun 的嘴仗打了好几年了,可不是光只因为 Galactica 下线的事情。

  与另外两位图灵奖得主 Bengio 和 Hinton 的相对低调不同,近几年,LeCun 在社交媒体上的活跃在 AI 圈子里也是出了名的。不少工作在挂了 Arxiv 之后就第一时间在推特上宣传一波。

  同样高调的马库斯也是一向视推特为自己的主场,当 LeCun 的宣传和马库斯的看法产生矛盾时,双方都不打算憋着。

  在社交媒体上,两人可以说达到了有架必吵的地步,彼此间话讲的毫不客气,见面说不定都能直接掐起来那种。

  而且要说梁子,2019 年 LeCun 与 Hinton 和 Bengio 一起获得图灵奖后,有一张合影,原本马库斯站在 LeCun 的边上,但在 LeCun 分享的照片中,Marcus 被无情地剪掉了。

  然而,ChatGPT 的诞生改变了一切。

  ChatGPT 爆火,Galactica 三天后便落魄下架。在 LeCun 对 LLM 疯狂输出时,马库斯自然乐于看到此景。

  正所谓敌人的敌人就是朋友,不论 LeCun 的言论是自家产品失败后的大彻大悟,还是对竞品顶流现状的眼红,马库斯都愿意添一把火。

  马库斯认为,他和 LeCun 达成一致的,不仅是关于 LLM 的炒作和局限性。他们都认为 Cicero 应该得到更多的关注。

  最后,马库斯@了懂的都懂的那个人,并说‘该给家人们福利了’。

  可以说,LeCun 在推特上掀起的骂战,不仅让马库斯的反 GPT 军团多了一员猛将,还给了两人握手言和的契机。

  这么看来,或许马库斯才是最终赢家。