(图片来源:unsplash)
就在刚刚,ChatGPT 再度上新。
北京时间 7 月 19 日凌晨,美国 OpenAI 公司推出一款新的 AI 模型“GPT-4o mini”,即 GPT-4o 的更小参数量、简化版本。
OpenAI 表示,GPT-4o mini 是目前功能最强大、性价比最高的小参数模型,性能逼近原版 GPT-4,成本相比 GPT-3.5 Turbo 便宜 60% 以上,支持 50 种不同语言,替代 GPT-3.5 版本的 ChatGPT,但该公司没有透露其训练参数规模信息。
OpenAI 表示,API 层面,GPT-4o mini 支持 128k、16k 输入 tokens(图像和文本);价格层面,GPT-4o mini 每百万输入 tokens 为 15 美分(约 1.09 元人民币),每百万输出 tokens 为 60 美分(约 4.36 元)。
按照规划,GPT-4o mini 即日起向 ChatGPT 免费用户以及 ChatGPT Plus 和 Team 付费订阅用户开放,并将于下周向 ChatGPT Enterprise 企业版客户开放。另外,未来几天内,OpenAI 还将开放 GPT-4o mini 微调版本。
“推动我们可以免费提供 AI 技术的极限,是确保 AGI 造福全人类追求的一部分。”ChatGPT 官方账号在社交平台上表示。
OpenAI CEO 奥尔特曼(Sam Altman)还透露,仅仅两年前,世界上最好的模型还是 GPT-3 的 text-davinci-003 版本,与今天相比表现差得多,还要贵上 100 倍。
换句话来说,短短两年,GPT 大模型每 token 的成本价格已经下降 99%。
实际上,早在今年 5 月 14 日,OpenAI 推出可免费使用的全新旗舰 AI 模型 GPT-4o。
OpenAI 首席技术官米拉·穆拉蒂 (Mira Murati)表示,GPT-4o 里的“o”是 Omni(全能模型)的缩写,可实时进行音频、视觉和文本推理,它可以在短至 232 毫秒、平均 320 毫秒的时间内响应音频输入,与人类在对话中的反应速度一致。
米拉·穆拉蒂指出,在 API 使用方面,相比去年 11 月发布的 GPT-4-turbo,GPT-4o 价格降低一半(50%),速度提升两倍(200%)。
OpenAI CEO 奥尔特曼(Sam Altman)当时称,新的 GPT-4o 是 OpenAI 有史以来最好的模型,它很智能,速度很快,是原生多模态,并且 GPT-4o 语音助手可供包括 Plus、免费版本在内的所有 ChatGPT 用户使用。
然而,GPT-4o 语音助手却意外地迎来推迟。今年 6 月 22 日,OpenAI 宣布,原计划在 6 月下旬向一小群 ChatGPT Plus 用户推出的 GPT-4o 语音功能,将推迟到 7 月,还需要一个月时间才能达到发布标准。至于原因,OpenAI 称是因为需要更多时间进行安全测试。
“我们正在提高模型检测和拒绝某些内容的能力,同时努力改善用户体验,并准备我们的基础设施扩展到数百万,同时保持实时响应。”OpenAI 表示。
如今,OpenAI 似乎又重新调整,推出了小参数模型 GPT-4o mini。而一般来说,这类小参数模型规模大约不到 7B(70 亿),可用于笔记本电脑、手机等端侧设备。
具体来说,GPT-4o mini 在文本智能和多模态推理方面的学术基准测试中超越了 GPT-3.5 Turbo 和其他小型模型,并且支持的语言范围与 GPT-4o 相同。它还在函数调用方面表现出色,这可以使开发人员构建获取数据或使用外部系统采取行动的应用程序,并且与 GPT-3.5 Turbo 相比,它的长上下文性能有所提高。
- 推理任务: GPT-4o mini 在涉及文本和视觉的推理任务上优于其他小型模型,在文本智能和推理基准 MMLU 上的得分为 82.0%,而 Gemini Flash 为 77.9%,Claude Haiku 为 73.8%。
- 数学和编码能力: GPT-4o mini 在数学推理和编码任务中表现出色,优于市场上之前的小型模型。在测量数学推理的 MGSM 上,GPT-4o mini 得分为 87.0%,而 Gemini Flash 得分为 75.5%,Claude Haiku 得分为 71.7%。在测量编码性能的 HumanEval 上,GPT-4o mini 得分为 87.2%,而 Gemini Flash 得分为 71.5%,Claude Haiku 得分为 75.9%。
- 多模态推理: GPT-4o mini 在多模态推理评估 MMMU 上也表现出色,得分为 59.4%,而 Gemini Flash 为 56.1%,Claude Haiku 为 50.2%。
性价比方面,GPT-4o mini 发挥优异。目前,GPT-4o mini 现已作为文本和视觉模型在 Assistants API、Chat Completions API 和 Batch API 中提供。开发人员每 100 万个输入令牌支付 15 美分,每 100 万个输出令牌支付 60 美分(大约相当于标准书籍的 2500 页)。
OpenAI 表示,这比之前的 Frontier 型号便宜一个数量级,比 GPT-3.5 Turbo 便宜 60% 以上。
OpenAI API 产品负责人 Olivier Godement 表示:“我们的使命是推动前沿技术的发展,打造最强大、最实用的应用程序,我们当然希望继续开发前沿模型,不断突破极限。但我们也希望拥有最好的小型模型。”
Godement 表示,过去一周,一些开发人员一直在试用 GPT-4o mini。一家美国电邮初创公司 Superhuman 使用它来制作消息的自动回复,金融服务初创公司 Ramp 依靠它从收据中提取信息。
不过,很遗憾的是,目前从测试来看,GPT-4o mini 并未解决 9.11 和 9.9 谁的数值大这个问题。
另外,OpenAI 还表示,GPT-4o mini 是该公司首个使用其开发的新安全策略(称为“指令层次结构”)的 AI 模型。这种方法的目的是让 AI 系统优先执行某些指令(例如来自公司的指令),从而使人们更难让该工具做不该做的事情。
实际上,当前,GPT-4o mini 同性能下的小端侧模型赛道,估值 800 亿美金的 OpenAI 将面临着诸多竞争对手。
其中,包括 Anthropic、谷歌等多个涉足于 AI 模型的公司,经常发布其最先进模型的更灵活、功能更少、成本更低的版本,比如 Gemma-7B,以便为开发人员提供更多选择。而较小的模型可能在算力成本低的情况下实现最适合的基本任务,而较大的模型可能可以处理更复杂的任务。
值得一提的是,就在今年 7 月,仅有 8 人的法国 AI 实验室 kyutai 发布首个实时原生多模态 Moshi,仅用了半年的时间从头训练,效果演示堪比 5 月发布的 GPT-4o,被誉为“开源版”GPT-4o。
同在 7 月 19 日凌晨,Mistral Al 发布 12B 的小模型,同英伟达合作开发,上下文长度为 128K,迎来对战。
而在国内,商汤早前发布国内首个所见即所得、实时流式多模态交互模型“日日新 5o”,交互体验对标 GPT-4o;科大讯飞董事长刘庆峰直言,讯飞星火大模型的语音效果也堪比 GPT-4o。另外,7 月 16 日左右,阿里云 Qwen 也公布了类似于 GPT-4o 的语音助手技术。
因此,接下来,GPT-4o mini 将面临市场上诸多竞争对手的局面。
但可以确定的是,随着苹果、微软、Arm、英特尔、高通等诸多终端产业链龙头的加入,这类小端侧模型或将成为 2024 年最热门的大模型赛道之一。
爱芯元智创始人、董事长仇肖莘对钛媒体 App 表示,端侧 AI 大模型应用是一个巨大的机遇机会。大模型在端侧落地的场景首先可能是车,随后是手机、AI PC 等。目前,大模型的落地现在还处于非常原始的阶段——broke force(乱局)。
“应用场景非常多样。一个 3.2T 的小芯片,如果集成到手机芯片里,手机就可以在本地完成很多应用的运行,而无需上云。”仇肖莘表示,生成式 AI 的底座大模型一定是在云端,但大模型是不是能够通过微调,或者某些优化等方式,形成行业大模型,落到边缘侧,而非这种几万亿的参数量,还是有可能的。
CNBC 评价称,GPT-4o mini 是 OpenAI 努力走在“多模态”前沿技术的一部分,即在一个工具 ChatGPT 中提供多种媒介类型(如文本、图像、音频和视频)下的生成式 AI 技术能力。
中国企业家杂志提到,目前国内已有一部分大模型公司放弃了底层模型的更新探索包括投喂更多数据和尝试新算法,转向应用和场景探索。技术进化不重要,赚钱才是正经事。
清华大学计算机系长聘副教授,面壁智能联合创始人、首席科学家刘知远强调,未来的 AI 大模型将是端云协同的模式。出于隐私保护、算力等考虑,把模型放在离用户更近的地方,具有重要的价值和意义。
(本文首发于钛媒体 App,作者|林志佳,编辑|胡润峰)