大佬跳槽,微软谷歌大战!近一个月前的文章竟是篇「神预言」

  新智元报道

  编辑:Aeneas 好困

  注意看,这是一篇「神预言」——谷歌、Meta 等大厂,发展 AI 时一向谨慎,但现在,OpenAI 这种小公司的飞速发展,逼得大厂们是不得不改换思路了。

  这篇 1 月 27 日的分析文章, 发出之后不到一周,谷歌和微软就相继官宣,要把 AI 聊天机器人整合进搜索引擎。

  回头再看,到处都是回旋镖。

  忽然,就开窍了?

  对于发展 AI,科技巨头们的态度一向慎之又慎。然而 ChatGPT 的横空出世,让它们酸出天际。

  人工智能发展的基石,是谷歌、Meta 和微软这些大公司搭起来的。

  然而现在,锐意进取的小公司正以让人头晕目眩的速度将 AI 推向大众,打得这些巨头措手不及。

  面对着科技股的持续下跌,以及 ChatGPT 爆红带来的压力,硅谷大厂们似乎在突然之间就「开窍」了——愿意承担更多的「声誉风险」。

  作为时下最当红的明星,ChatGPT 已经帮 OpenAI 从微软爸爸那里吸引了数十亿美元的投资。

  而 ChatGPT 本身,也很可能会被整合到微软流行的办公软件全家桶中,向企业销售。

  根据《华尔街日报》对六位谷歌和 Meta 现任和前任员工的匿名采访,ChatGPT 获得的关注激增后,也给 Meta 和谷歌之类的科技巨头造成了压力,让他们不再那么顾虑安全问题。

  Meta 员工透露,公司的内部备忘录显示,公司正催着加快 AI 的审批程序,赶快利用起最新的技术。

  《纽约时报》报道,谷歌看到 ChatGPT 的繁荣景象之后,除了发布红色代码,还推出了「绿色通道」,缩短评估和减轻潜在危害的流程。

  风险太大,等等再说

  其实,早在 ChatGPT 亮相的三个月前,Meta 就曾发布类似的聊天机器人。

  但不同于 ChatGPT 五天后就破百万的用户量,这个叫做 Blenderbot 的聊天机器人非常无聊。

  这一点,就连 Meta 的首席 AI 科学家 Yann LeCun 都不得不承认。

  「热天可以把狗放进冰箱里吗?」「我不能和陌生人讨论这些。」

  最近,LeCun 在一个论坛上解释称:「它之所以这么无聊,是因为我们把它做得很安全。」

  他说,公众的反应之所以不温不火,是因为 Meta 对于内容审核「过于谨慎」了。

  有一个阴谋论这么解释:Blenderbot 这么无聊是故意的。Meta 可以制造更好的 AI,也许有了更好的 AI,但他们决定发布一个糟糕的 AI。

  是的,大型科技公司一直以来都面临的一个问题是,对人工智能道德影响的审查机制,并不像隐私或数据安全那样成熟。

  通常情况下,研究人员和工程师团队会希望他们提出的技术创新,能够被更快地做成产品进入到公众的视野之中,或者融入公司现有的基础设施。

  不难想象,在推进的过程中,很容易就会与公司中致力于「负责任的人工智能」的团队发生冲突。

  比如,在签署为五角大楼无人机提供计算机视觉的合同 Project Maven 时,就有不少员工提出了抗议。

  而一个可以给餐馆打电话进行预订,且不会透露自己是机器人的项目 Duplex,也引发了员工的抵触情绪。

  为此,谷歌在 2018 年正式发布了人工智能「七项原则」。

  文章地址:https://blog.google/technology/ai/ai-principles/

  Cohere 联合创始人,曾在谷歌大脑工作了三年的 Nick Frosst 表示,像谷歌和微软这样的大公司,更多会专注于利用 AI 来改善他们现有商业模式。

  毕竟,激进所带来的「声誉风险」,是巨头们承受不起的。

  尤其是在微软的 Tay 遭遇惨败后,他们就变得格外小心。

  2016 年,Tay 上线不到一天就被火速封存。因为有人让这个聊天机器人发起种族战争,并给纳粹洗白。当时舆论一片哗然。

  2022 年,Meta 家的 Galactica,在上线短短三天之后就被撤下。网友纷纷指责它对科学研究的总结非常不准,而且有时还带有偏见。

  不过,大厂对此也有自己的看法。

  Meta 基础人工智能研究部经理 Joelle Pineau 说:「人工智能的进展速度快得令人难以置信,而我们不仅需要确保高效的审查流程,而且还要做出正确的决定,并发布最适合我们社区的 AI 模型和产品。」

  谷歌发言人 Lily Lin 说:「我们相信,人工智能是一项基础性和变革性的技术,对个人、企业和社区都非常非常大的作用。我们需要考虑这些创新可能产生的更广泛的社会影响。我们会继续在内部测试我们的 AI 技术,确保它是有用和安全的。」

  微软的沟通主管 Frank Shaw 表示,当微软使用 DALLE-2 这样的 AI 时,会与 OpenAI 合作,建立额外的安全缓解措施。

  「微软多年来一直致力于推动人工智能领域的发展,并且会公开指导用户在我们的平台上以负责任和道德的方式创建和使用这些技术。」

  没赶上热乎的

  但问题是,担心来担心去,自己转眼间就被甩在了后面。

  过去的 2022 年,可以称为 AIGC 元年。我们见证了 DALL-E 2、Stable Diffusion 和 ChatGPT 的爆火。

  尤其是在 OpenAI 发布 ChatGPT 之后,生成式人工智干掉谷歌的声音此起彼伏——

  众所周知,ChatGPT 可以用一种更加易懂的方式提供了简单的答案,而不需要用户去点击各种链接。

  不过,非常有趣的一点是,这些 AI 的底层技术,其实都是由谷歌这些巨头开创的。

  但近年来,这些大厂变得愈发神秘,他们会宣布新的模型或提供 demo,但不会公布完整的产品。

  与此同时,像 OpenAI 这样的研究实验室,却「稳准狠」地推出了最新版本的 AI。这也让人们怀疑大厂们磨磨蹭蹭地究竟在干什么,比如谷歌语言模型 LaMDA,就已经推出好几年了。

  于是,在这样的大环境下,工程师们不得不面对,自己费尽心思研究的新技术却始终无法被采用的挫败感。

  部分员工们表示,自己这几年一直在建议将聊天功能融入搜索引擎之中,但并没有得到反馈。

  不过,他们也明白,谷歌有合理的理由不急于去改变自己的搜索产品。

  毕竟,用明确的答案回应用户的搜索,不仅会压缩在线广告的宝贵空间,而且但凡被用户发现了问题,公司还需要承担额外的责任。

  当然,遭遇这个问题并不只有谷歌一家公司。

  据知情人士透露,Meta 的员工也不得不处理公司对不良公关的担忧。

  具体来说就是,在推出新产品或发表研究报告之前,员工必须回答有关公开其工作的潜在风险的问题,包括如果被公众误解了怎么办。

  OpenAI 怎么就赢了?

  对此,佐治亚理工学院计算机教授、机器学习专家 Mark Riedl 表示,从基础的技术层面来讲,ChatGPT 可能不一定比谷歌或 Meta 更好。

  但 OpenAI 有一个关键的优势:把模型开放给公众使用。

  于是在过去的这两年里,OpenAI 就能够源源不断地收到来自用户的真实反馈。

  比如,给自己满意的答案「点赞」,或者「踩一下」那些感觉不恰当的。

  而这就是让 ChatGPT 变得如此强大的基石——「基于人类反馈的强化学习」(RLHF)。

  相比之下,作为被挑战者的谷歌搜索,在经过四分之一个世纪后,已经被广告和试图玩弄系统的营销人员搞得臃肿不堪。

  技术专家 Can Duruk 指出,「谷歌长期垄断的地位,已经让他们曾经令人信服的搜索体验堕落成一个充满垃圾的、由搜索引擎驱动的地狱。」

  当然,还有一点也很重要——也就我们最初讨论的「声誉风险」。

  一位谷歌员工表示,在公众眼里,OpenAI 比我们这些大厂更新、更激动人心,而且需要付出的代价也更少,就算搞砸了,也不会受到那么多批评和审视。

  大佬出走,谷歌被逼到墙角

  的确,在 10 年之前,谷歌就已经是这个领域无可争议的老大了。

  2014 年,收购了顶级人工智能实验室 DeepMind。

  2015 年,开源了机器学习框架 TensorFlow。

  到了 2016 年,Pichai 承诺将谷歌打造成一家「人工智能优先」(AI first)的公司。

  然而,支撑着这些发展背后的人才,却越来越不「安分」了。

  在过去一年左右的时间里,不少大牛都跳到了更灵活的初创公司,比如 OpenAI 和 Stable Diffusion。

  包括 Character.AI、Cohere、Adept、Inflection.AI 和 Inworld AI 等等这些围绕着大规模语言模型建立的初创公司,也都是出自谷歌顶级 AI 研究人员之手。

  此外,还有使用类似模型开发聊天界面的搜索初创公司,如谷歌前高管 Sridhar Ramaswamy 经营的 Neeva。

  其中,Character.AI 的创始人 Noam Shazeer,Cohere 的联合创始人 Aidan Gomez,更是研发 Transformer 以及其他核心机器学习架构的关键人物。

  像谷歌和微软这样的大公司一般都专注于使用人工智能来改善他们庞大的现有商业模式,Nick Frosst 说,他在谷歌大脑工作了三年,然后创立了 Cohere,这是一家位于多伦多的初创公司,建立大型语言模型,可以为企业提供定制服务。他的联合创始人之一,就是 Aidan Gomez。

  「这个领域的发展如此迅速,对我来说,领先的人是小公司并不奇怪,」Frosst 说。

  著名研究科学家 David Ha 在推特上说:「如果谷歌再不振作起来,开始发布自己的人工智能产品,就将作为训练整整一代机器学习研究人员和工程师的『黄埔军校』载入史册。」

  而这位大佬也在 2022 年离开谷歌大脑,加入了明星初创公司 Stable Diffusion。

  或许,时代可能真的要变了。

  Rumman Chowdhury 曾负责 Twitter 的机器学习伦理团队,直到马斯克在 11 月将其解散。

  Chowdhury 表示,由于像谷歌和 Meta 这样的大厂需要争相追赶 OpenAI,因此那些批评家和伦理学家们,会越来越受冷遇。

  参考资料:

  https://www.washingtonpost.com/technology/2023/01/27/chatgpt-google-meta/