国产人工智能企业深度求索开发的大模型 DeepSeek 开源周落下帷幕。
2 月 28 日,DeepSeek 最新宣布,开源面向 DeepSeek 全数据访问的推进器 3FS(Fire-Flyer File System)。据介绍,这是一款并行文件系统,可利用现代固态硬盘(SSD)和远程直接内存访问(RDMA)网络的全部带宽,加速和推动 DeepSeek 平台上所有数据访问操作。
至此,DeepSeek 开源周正式结束,此前 2 月 21 日午间,DeepSeek 曾宣布,将开源 5 个代码库,以完全透明的方式与全球开发者社区分享研究进展,每日都有新内容解锁,进一步分享新的进展,并将这一计划定义为“Open Source Week”(开源周)。
“此次开源周提供的五个项目,覆盖了 AI 开发的核心环节——从硬件性能压榨、模型训练优化到数据处理提速,目标是让开发者开箱即用,降低技术门槛和成本,让开发者能够更高效、低成本、广泛地使用大模型。”对于开源的具体影响,华东师范大学数据科学与工程学院教授王伟告诉澎湃新闻记者,预计将拉动更多云服务提供商,降低自建云计算中心或私有化部署成本,形成更强大的生态圈,与其他大模型生态体系竞争。
他提到,DeepSeek 之所以选择开源路线,不担心被同行超越,是因为其核心竞争模式和利润来源不需要依靠售卖模型服务而盈利,此外,也说明 DeepSeek 有相当的技术信心,“相信自己不会迅速被业内竞争对手超越,能够坚持引领最先进的技术在自身体系下持续发展。”
“此次 DeepSeek 的开源,从更大意义上来说,是在引导全球范围内的标准制定,形成更强的 DeepSeek 生态,通过开源能够吸引更多国家的开发者加入到 DeepSeek 生态中,将很大程度提升中国在人工智能领域的全球引领能力。”王伟认为,如果 DeepSeek 在全球范围内形成较强的开源生态,将会推动国内的芯片厂商进一步适配,拥有更广阔的场景和市场,实现商业闭环。
此次 DeepSeek 究竟开源了哪些项目,对于大模型行业有什么意义?澎湃新闻记者梳理了从 2 月 24 日至 28 日所有的开源项目。由于这些项目涉及众多专业术语,记者使用了 DeepSeek 网页版提供项目具体解释:
2 月 24 日,首个开源的代码库为 FlashMLA。
FlashMLA 被称为提升显卡潜力的“加速器”,FlashMLA 是 DeepSeek 用于 Hopper GPU 的高效 MLA 解码内核,并针对可变长度序列进行了优化,现已投入生产。
FlashMLA 专门用于优化显卡(尤其是英伟达旗下 GPU)的计算效率。比如,AI 处理不同长度的句子(如长文本和短文本)时,它能动态分配算力,避免资源浪费,让处理速度接近硬件极限。实测显示,这让 AI 翻译、内容生成等任务更快、更省成本。
2 月 25 日,DeepSeek 宣布开源 DeepEP,即首个用于 MoE 模型训练和推理的开源 EP 通信库。
DeepEP 被称为大模型训练的“通信管家”,专门用于提升大模型训练效率设计,比如,当多个 AI 专家模型(MoE 架构)协同工作时,它能高效协调它们之间的通信,减少延迟和资源消耗,同时支持低精度计算(如 FP8),进一步节省算力。
2 月 26 日,DeepSeek 宣布开源 DeepGEMM:DeepGEMM 被称为矩阵计算的“省电小能手”,这是一个优化矩阵乘法(AI 训练的核心计算)的工具。通过低精度计算(FP8)提升速度,再用英伟达 CUDA 技术修正误差,既快又准,代码仅 300 行,安装简单,适合快速部署。
2 月 27 日,DeepSeek 开源两个工具和一个数据集:DualPipe、EPLB 以及来自训练和推理框架的分析数据,梁文锋本人也名列开发者之中。
DualPipe 主要用于解决流水线并行中的“等待时间”问题。比如,多个任务步骤速度不一时,它能双向调度,减少空闲时间。EPLB 则用于自动平衡 GPU 负载,当某些 AI 专家模型任务过重时,它会复制任务到空闲显卡,避免“忙的忙死,闲的闲死”。
2 月 28 日,DeepSeek 宣布开源 3FS(Fire-Flyer File System)系统:3FS 被称为数据处理的“极速组合”,采用分布式文件系统,利用高速存储和网络技术(如 SSD、RDMA),让数据读取速度达到每秒 6.6TB,适合海量数据训练。
DeepSeek 究竟为何要选择开源?此次开源将如何辐射行业?
“DeepSeek 的这波开源,相当于在英伟达的 AI 护城河上架起了浮桥。”北京邮电大学智能交互设计专业副教授谭剑向澎湃新闻记者表示,更重要的是,DeepsSeek 团队这些开源模块证明了他们有能力深入剖解英伟达 CUDA 和并行计算芯片的紧密耦合模式,这也是传统 AI 研究领域认为是不可撼动的软硬件基础设施,是英伟达宽阔的护城河。
谭剑认为,这周密集的开源模型和算法重构了 AI 硬件运行逻辑,不单是有力地回应了之前 Deepseek 训练模型仍然需要巨大算力的质疑,而且可以预见,这些核心库的开源将极大激发全球 AI 软硬件团队的创新活力。
对于 DeepSeek 对 AI 乃至芯片行业的影响,谭剑表示:一方面,AI 模型软件研究团队可以通过算法优化(如低秩注意力压缩)降低硬件需求,另一方面,算法优化暴露了现有 AI 芯片的设计缺陷,我国 AI 芯片研发团队也可以借鉴这些算法重写设计内部计算单元和通信总线。预计未来各个细分领域都有可能用上国产的软硬件一体化 AI 模型,开启我国 AI 模型应用百舸争流的新时代。
而大模型行业资深观察者刘聪向记者表示,DeepSeek 这波开源堪称“业界良心”,虽然对普通用户及大多数使用者而言,直接应用价值有限,但对底层技术从业者来说十分有用。
刘聪认为,DeepSeek 将在 DeepSeek-V3 论文中提到的 infra(基础架构)优化都提供了开源,很多开源框架都可以加上这些优化策略,随着硬件资源又一次被压缩,可能会迎来一波 API(接口)降价,从而继续引领行业的公开、透明。
作为开源大模型,DeepSeek 的火爆带动了开源成为如今的大模型新趋势,百度、阿里纷纷宣布旗下大模型开源,头部大厂开源似乎已成为共同选择。
香港科技大学校董会主席、美国国家工程院外籍院士沈向洋在 2025 全球开发者先锋大会(GDC)上表示,尽管当前闭源的份额仍然超过开源的份额,但接下来一两年将剧烈变化,平衡开源与闭源,引领未来。“大模型时代,开源并没有像以往那么多、那么快,我想,通过上海的努力,我相信开源这件事情会越做越好。中国的团队、上海的团队一定会引领开源潮流。”
“尽管在国内大模型开源似乎成为主流,但在全球范围内,这并没有形成统一。”王伟坦言,例如头部大模型厂商 OpenAI 依然保持闭源路线,即便是 DeepSeek 在开源过程中也有保留,例如在训练数据和训练过程中并未实现开源。
“开源和闭源存在路线之争,这不仅是企业之间,甚至可能上升到国家层面。在数字经济时代,信息复制成本近乎为零,DeepSeek 选择开源能迅速占领市场,获得大量月活,此后可能考虑采用其他商业模式盈利,而传统的闭源大模型占领市场、推广用户需要投入大量广告成本。”
值得注意的是,人工智能的研发竞争正在愈发激烈。当地时间 2 月 27 日,大洋彼岸的人工智能巨头 OpenAI 发布 GPT-4.5(研究预览版),并称其为公司迄今为止规模最大、性能最强的聊天模型。
不过,由于持续的高投入和高成本,GPT-4.5 此次面世面临巨大争议。公开资料显示,开发者可以直接在 API 中调用 GPT-4.5,但输入 token 定价比 GPT-4o 贵了 30 倍,输出 token 贵了 15 倍。OpenAI 的 CEO 奥特曼表示,尽管想同时推出 GPT-4.5Plus 和 Pro 版本,但 GPU 已然用尽,下周将增加数万个 GPU,然后将其推出到 Plus 级别。
如何看待 OpenAI 新推出的 GPT-4.5?王伟认为,这正体现了闭源和开源两大不同发展路线,GPT-4.5 在很多评测能力上有很大优势,但它耗费了巨大的算力和资金,“从我们的角度看,它虽然有优势,但需要耗费巨大的成本,我们更看好类似 DeepSeek 这样可持续发展的模式。”
形成对比的是,DeepSeek 继续走低成本和性价比路线。2 月 26 日,DeepSeek 发布降价通知:北京时间每日 00:30-08:30 为错峰时段,API 调用价格大幅下调,其中 DeepSeek-V3 降至原价的 50%,DeepSeek-R1 降至 25%。