据 TheVerge 报道,Google Cloud 与 AI 模型托管平台 Hugging Face 建立了新的合作伙伴关系,让开发人员无需支付 Google Cloud 订阅费用即可构建、训练和部署 AI 模型。
现在,使用 Hugging Face 平台的外部开发人员将能够 “经济高效” 地访问谷歌的张量处理单元 (TPU) 和 GPU 超级计算机,其中包括数千台 Nvidia 的热门且出口受限的 H100。
Hugging Face 是流行的 AI 模型托管平台,存储了海量开源基础模型,例如 Meta 的 Llama 2 和 Stability AI 的 Stable Diffusion。它还拥有许多用于模型训练的数据库。该平台上托管了超过 350,000 个模型,供开发人员使用或将自己的模型上传到 Hugging Face,就像程序员将代码放在 GitHub 上一样。Hugging Face 的估值为 45 亿美元,去年 Google、亚马逊、Nvidia 等公司帮助筹集了 2.35 亿美元。
谷歌表示,Hugging Face 用户可以在 “2024 年上半年” 开始使用人工智能应用程序构建平台 Vertex AI 和 Kubernetes 引擎,帮助训练和微调模型。
谷歌在一份声明中表示,与 Hugging Face 的合作 “进一步增强了谷歌云对开源人工智能生态系统开发的支持”。谷歌的一些模型位于 Hugging Face 上,但其标志性大型语言模型(如 Gemini,现在为聊天机器人 Bard 提供支持)和文本到图像模型 Imagen 不在平台上,被认为是更闭源的模型。