谷歌Bard负面问题越来越多,内部员工质疑:有什么用?海量投入值吗?

  过去几个月,谷歌母公司 Alphabet 邀请重度使用者,持续对旗下 AI 聊天机器人 Bard 的研发进行内部讨论;一些谷歌产品经理、设计师和工程师对 AI 有效性和功能提出质疑,甚至质疑公司投入海量资源研发 AI 是否值得。

  谷歌 Bard 一名资深产品经理今年 7 月曾在论坛 Discord 上表示,对于那些基于大语言模型(LLM)AI 聊天机器人来说,“我的原则就是,除非我能独立证实信息的准确性,我不会相信大语言模型生成的结果。当模型达到这一水平时我当然乐意使用,但现在还没有达到。”

  而 Bard 项目一名用户体验小组主管 8 月则表示,“我仍在考虑,大语言模型面临的最大挑战是,它们究竟能用来干什么,或者能提供哪些帮助?它何时能对人类作出重大影响?显然时候未到。”

  为应对微软旗下 OpenAI 推出的 ChatGPT,谷歌今年 3 月推出 Bard,自此以后就不断为 Bard 加入新功能,包括 AI 分析图片、多语言服务等。上月,谷歌迈出一大步,将 Bard 接入其 Gmail、地图、文档和 YouTube 等核心产品。

  不过,谷歌也开始越来越多地面对 AI 带来的困扰,包括编造事实,以及为用户提供潜在的危险建议。就在谷歌上月 19 日宣布将 Bard 接入核心产品的当天,谷歌也同时在 Bard 推出一键搜索功能,帮助用户核查 AI 生成的回应是否为真。

  对于谷歌来说,确保 Bard 的成功已经成为该公司的头号任务。尽管谷歌在搜索领域遥遥领先,其母公司 80% 的营收都来源于此,但随着生成式 AI 模型爆火,谷歌在搜索领域的霸主地位受到挑战,尤其是 OpenAI 以及一众初创 AI 公司,可能终结谷歌的霸主地位。

  内部论坛消息显示,即便是 Bard 项目的研发主管,也对这款产品的潜力感到困惑和矛盾。一名产品经理建议,谷歌应限制用户在“创造性、头脑风暴的程序”中使用 Bard,不过使用 AI 编程是个好的选择,毕竟码农最终还是需要验证代码是否管用。

  谷歌则在一份声明中表示,内部论坛上有关 Bard 局限性和潜力的讨论属于日常操作,并不令人惊讶,因为这是产品研发的一部分。“推出 Bard 本来就是一项实验,我们渴望听到用户的使用反馈,让我们可以改善用户体验。”

  而且,Discord 论坛的讨论不光涉及 AI 的功能与有效性,同时也涉及国际政治、劳工伦理。谷歌和亚马逊曾参与合约,为以色列军方提供 AI 工具,一名论坛用户 7 月中旬质疑谷歌利用 AI 作为致命武器,这名用户随即被论坛禁言,管理员表示论坛禁止讨论政治、宗教或其他敏感话题。同月,另一名用户质疑谷歌使用低薪、过劳的合同工来为 Bard 做优化,谷歌则表示,人工优化是 Bard 研发的重要部分,否则 AI 就可能产生重大失误。

  还有论坛用户对研发 Bard 投入巨量的资源提出质疑。一名用户写道,“是否存在任何减少大语言模型方面海量资源投入的努力?尤其是巨量的水,以及大规模使用 GPU 的需求。”对此,Bard 用户体验主管表示,研发 Bard 就像是芯片设计或者超级计算机,“相信我们将会找到办法,减少资源投入,达到相同的效果。”

  其实,不光是 Bard 内部质疑 AI 存在的价值,其竞争对手 ChatGPT 目前也遭遇类似问题。华尔街见闻此前报道,最新数据显示,其增速停滞的苗头已经开始显现,越来越多的用户并未给 ChatGPT 带来相应的规模经济,反而不断增加成本,而硅谷巨头们只能尝试向用户收取更高的增值费用,引起用户不满。

  红杉资本表示,目前生成式 AI 面临的最大问题,并非找到用例或需求,而是无法向用户证明其价值。一些观点认为,随着投资者和用户的热情退去,明年,生成式 AI 领域可能出现一批淘汰者。