整理华卫、褚杏娟
这两天,阿里在云栖大会上又开“卷”大模型了。一口气上架 100 多个开源模型、主力模型再大降价,“量多”又“价低”的策略又给大家带来了一点“小小”的震撼。
100 多个开源模型“量大管饱”
阿里云 CTO 周靖人发布了通义千问新一代开源模型 Qwen2.5,Qwen2.5 全系列总计上架了 100 多个模型,涵盖多个尺寸的大语言模型、多模态模型、数学模型和代码模型,其中每个尺寸都有基础版本、指令跟随版本和量化版本,创造大模型开源史上之最。
“这些(模型)不是竞争的关系,而是把选择留给我们的开发者。”周靖人在回答媒体提问时说道,“今天,开发者会基于自己的业务场景去做模型能力增强和推理效率增强的权衡与选择,很多时候我们不能帮大家选择。”
周靖人表示,Qwen2 在最开始时只推出两款,7B 和 70B,之后团队得到整个开发者社区的反馈,希望阿里能推出更多版本,包括 14B、32B 和 3B。“这次我们就把整个模型系列推出来,将更多选择权留给开发者。”
另外,周靖人谈到,从去年开始,阿里非常坚定不移做开源,这跟其做云计算的初心是密切相关的。“一方面,我们希望生态的发展。另一方面,我们还是希望能更有效服务到企业。”
据了解,Qwen2.5 在语言模型方面开源了 7 个尺寸,0.5B、1.5B、3B、7B、14B、32B、72B。型号的设定考虑了下游场景的不同需求,比如 3B 是适配手机等端侧设备的黄金尺寸;32B 是受开发者期待的“性价比之王”,可在性能和功耗之间获得最佳平衡;而 72B 是 Qwen2.5 系列的旗舰模型,阿里在多个核心任务的测评上,以不到 1/5 的参数超越了拥有 4050 亿巨量参数的 Llama3.1-405B。
专项模型方面,阿里用于编程的 Qwen2.5-Coder 在当天开源了 1.5B 和 7B 版本,据悉未来还将开源 32B 版本;专门用于数学的 Qwen2.5-Math 当天开源了 1.5B、7B、72B 三个尺寸和一款数学奖励模型 Qwen2.5-Math-RM。
多模态模型方面,广受期待的视觉语言模型 Qwen2-VL-72B 也正式开源。Qwen2-VL 能识别不同分辨率和长宽比的图片,理解 20 分钟以上长视频,具备自主操作手机和机器人的视觉智能体能力。
根据阿里的统计,截至 2024 年 9 月中旬,通义千问开源模型下载量突破 4000 万,Qwen 系列衍生模型总数超过 5 万个,成为仅次于 Llama 的世界级模型群。
在大模型开源领域,Llama 依然领先。根据 Meta 的最新数据, Llama 系列模型的下载量已接近 3.5 亿次(比去年同期增长了 10 倍多),仅在上个月,下载量就超过 2000 万次,使 Llama 成为领先的开源模型家族。Hugging Face 上有超过 60,000 个衍生模型,开发者会根据自己的用例对 Llama 进行微调。
“Llama 的成功得益于开源的力量。通过公开我们的 Llama 模型,我们看到了一个充满活力和多样化的 AI 生态系统,开发人员拥有比以往更多的选择和能力。从突破新界限的初创公司到使用 Llama 在本地或通过云服务提供商构建的各种规模的企业,创新范围广泛且迅速拓展。”Meta 官方表示。
对比之下,OpenAI 的 GPT 系列、Anthropic 的 Claude 大模型、百度的文心大模型、华为的盘古大模型等都选择了闭源。这反映了业内对大模型发展的判断有很大的不同,但到底哪条路是可以一直走下去的,目前还没有答案。
大模型还太贵了,“资费降下来才能爆发”
过去两年,模型的尺寸已增长数千倍,但模型的算力成本正在持续下降,企业使用模型的成本也越来越低。继 5 月首次大幅降价后,阿里云在大会上宣布,通义千问三款主力模型再次降价,Qwen-Turbo 价格直降 85%,低至百万 tokens 0.3 元,Qwen-Plus 和 Qwen-Max 分别再降价 80% 和 50%。
“我们希望企业和开发者能以最低的成本做 AI、用 AI,让所有人都能用上最先进的大模型。”阿里云智能集团首席技术官周靖人指出,只有这样才能带动整个行业的发展,激发更多产业级的创新。今天模型的运用、迭代和各种创新都还在早期阶段,这个时候如果把模型推理放到昂贵级别,会有大量开发者无法有效地批量化使用 AI。
他表示,阿里降价主要是通过技术的优化,不光是模型本身在快速迭代,模型推理架构、系统优化和云基础设施也在不断提升,而这些都能把模型的整体成本进一步降下来。
今年上半年,AI 大模型行业多番掀起价格战。除阿里外,百度、科大讯飞、字节、智谱等多家企业都先后大幅降价,甚至已经打到了“负毛利”的状态。谈及大模型降价的底线,周靖人直言,今天的大模型价格不存在“已经足够低”的说法,相对未来庞大的应用来说,还太贵了。
“这是 AI 基础设施全面革新带来的技术红利,我们会持续投入先进 AI 基础设施的建设,加速大模型走进千行百业。”周靖人表示,阿里云正在围绕 AI 时代,树立一个 AI 基础设施的新标准,全面升级从服务器到计算、存储、网络、数据处理、模型训练和推理平台的技术架构体系,让数据中心成为一台超级计算机,为每个 AI 和应用提供高性能、高效的算力服务。
大会现场,周靖人展示了 AI 驱动的阿里云全系列产品家族升级。最新上线的磐久 AI 服务器,支持单机 16 卡、显存 1.5T,并提供 AI 算法预测 GPU 故障,准确率达 92%;阿里云 ACS 首次推出 GPU 容器算力,通过拓扑感知调度,实现计算亲和度和性能的提升;为 AI 设计的高性能网络架构 HPN7.0,可稳定连接超过 10 万个 GPU ,模型端到端训练性能提升 10% 以上;阿里云 CPFS 文件存储,数据吞吐 20TB/s,为 AI 智算提供指数级扩展存储能力;人工智能平台 PAI,已实现万卡级别的训练推理一体化弹性调度,AI 算力有效利用率超 90%。
用阿里云副总裁、公共与客户沟通部的总经理张启的话说,“阿里现在在疯狂的搞 AI 大基建,把资费降下来,才有可能去谈未来应用的爆发。”