
新智元报道
编辑:艾伦
2025 年前盛行的闭源+重资本范式正被 DeepSeek-R1 与月之暗面 Kimi K2 Thinking 改写,二者以数百万美元成本、开源权重,凭 MoE 与 MuonClip 等优化,在 SWE-Bench 与 BrowseComp 等基准追平或超越 GPT-5,并以更低 API 价格与本地部署撬动市场预期,促使行业从砸钱堆料转向以架构创新与稳定训练为核心的高效路线。
2025 年以前,AI 界盛行着一种信念:只有闭源、巨额投入和疯狂堆算力才能打造最强大的模型。
OpenAI 作为这一思路的旗手,不仅将模型训练秘而不宣,更与合作伙伴绘制了高达 1.4 万亿美元的基础设施蓝图。
八年内烧掉 1.4 万亿美元来构建数据中心,被视作确保领先的唯一途径。
在这种思维下,OpenAI 旗舰模型的研发成本节节攀升:据报道,训练 GPT-4 就花费了约 1 亿美元。
闭源+重资本模式一度令人信服,OpenAI 因此获得了天价估值和汹涌资本支持。
然而,这一「用钱砸出智能」的神话,正随着一系列意料之外的挑战而动摇。
信念的第一次动摇
DeepSeek-R1 横空出世
今年年初,一家彼时名不见经传的中国初创公司深度求索掀起了巨浪。
它发布的 DeepSeek-R1 模型不仅开源,而且号称性能可与 OpenAI 顶级模型比肩。

更令人瞠目的是,DeepSeek 宣称训练这款模型只花了约 560 万美元,连旧金山一套像样的房子都买不起。
这个成本数字相比业内普遍认为的「烧钱」级别相差悬殊,仅为 Meta 开发 Llama 模型成本的约十分之一。
事实证明,这并非夸夸其谈。
DeepSeek-R1 发布后一周内,DeepSeek App 下载量迅猛攀升,一举超越 ChatGPT,登顶美国苹果 App Store 免费榜。
一款开源 AI 应用在美国用户中的受欢迎程度超过了 OpenAI 的王牌产品,这一幕令业界震惊。
DeepSeek 以微薄成本实现高性能,直接质疑了开发 AI 必须投入天量资金和算力的传统观念。
华尔街对此反应剧烈,微软和谷歌股价应声下挫,而 AI 芯片巨头英伟达的市值甚至蒸发了约 17%,相当于约 6000 亿美元。
资本市场用脚投票,开始重新审视 AI 赛道的投入产出模型:烧钱打造封闭模型的路线,或许并非高枕无忧的康庄大道。
开源低成本路线的核弹
Kimi K2 Thinking 震撼登场
DeepSeek 年初点燃的星星之火尚未平息,中国另一家初创公司月之暗面在年末投下了一枚震撼弹。
本周,月之暗面发布了最新的开源巨模型 Kimi K2 Thinking(以下简称 K2 Thinking),以开源身份在多个关键基准上追平甚至超越了 OpenAI 的旗舰 GPT-5。

要知道,GPT-5 可是闭源巨头最先进的成果之一,而 K2 Thinking 仅用几百万美元训练,却在高难度推理和编码测试上正面较量并拔得头筹。
K2 Thinking 在综合编程挑战「SWE-Bench Verified」上取得了 71.3% 的通过率,略高于 GPT-5 的成绩,甚至在复杂网页搜索推理任务 BrowseComp 上,以 60.2% 对 54.9% 的得分大幅领先 GPT-5。

这些数字宣示了一个历史拐点:开源模型与顶级闭源模型之间性能鸿沟的实质性塌陷。
K2 Thinking 的问世标志着开源免费模型在高端推理和编码能力上与封闭系统平起平坐,这一点在过去几乎难以想象。
而实现这一壮举,月之暗面投入的算力成本据传约为 460 万美元,比起 OpenAI 宏图中的万亿投入,几乎可忽略不计。
一边是几百万美元造就的开放奇迹,另一边是幻想烧钱万亿的巨无霸帝国,鲜明对比令人不禁怀疑:AI 行业过去坚持的大投入逻辑,难道真的站不住脚了?
技术路径的胜利
巧用架构胜过砸钱堆料
K2 Thinking 并非魔法横空出世,而是技术路线差异带来的成本逆袭。
传统的 GPT-5 这类闭源模型采用的是「通用大脑」式架构,每个参数对每个输入都会发动运算,因而模型越大推理开销越惊人。
K2 Thinking 则采用混合专家架构,将庞大模型划分为 384 个专长各异的专家模块。
每次仅有 8 个专家(外加 1 个通用专家)被激活参与计算,相当于只动用 320 亿参数来解决特定问题。
换言之,K2-Thinking 拥有一个「万智百宝箱」,每个 token 只调用其中不到 3.5% 的智力,却能享受近似万亿参数的知识储备。
这一架构设计让 K2 Thinking 在推理时既聪明又节省:「大而不笨重」。
架构优化带来的成本效率提升达百倍之多,令人叹为观止。
更关键的是,月之暗面研发了名为「MuonClip」的自定义优化器,在训练过程中自动稳压梯度,成功杜绝了超大模型常见的梯度爆炸和损失发散问题。
Kimi-K2 在长达 15.5 万亿 token 的训练中实现了「零训练崩溃」,无需人为中途干预重启,这意味着即使资金设备相对有限的团队也能可靠地训练超大模型。
DeepSeek 也在工程上强调「强化学习后训练」等高效策略,使得小团队得以攀登 AI 高峰。
这些技术路径上的创新,等于是用聪明才智破解了过去只有砸钱才能解决的难题。
曾经只有巨头烧钱才能铺就的康庄大道,如今民间高手另辟蹊径,用技术巧思抄了近路。
开源风暴的经济学冲击
当技术壁垒被攻克,开源路线在经济层面的优势便愈发凸显。
K2 Thinking 的模型权重可在相应许可证条款下自由下载部署。
这与 OpenAI 等闭源模式形成鲜明对比,它们的模型被封藏于云端,只能通过昂贵 API 租用它们的大脑。
以 K2 Thinking 为例,其官方提供的 API 价格是每百万输入 token 收费 4 元(命中缓存时更低至 1 元)、输出 token16 元。

相比之下,OpenAI 的 GPT-5 API 价格约为每百万输入 token 收 1.25 美元(约 9 元),输出 token 高达 10 美元(约 71 元)。

换算下来,同样百万 token 的处理,K2 Thinking 的费用仅为 GPT-5 的十分之一不到。
对开发者和企业而言,这无疑极具诱惑力,更何况 K2 完全可以本地部署,不愿付 API 费的话,大可以自建服务。
正因如此,我们已看到市场正在迅速响应:越来越多 AI 工具和平台开始集成 K2 Thinking 模型,许多开发者在社区分享如何用 K2 Thinking 微调自定义应用。
DeepSeek-R1 发布后,其 MIT 开源权重更是被无数开源社区下载、魔改,用于各种插件和研究项目。

甚至政府机构和大型企业也开始重新考虑,与其斥资购买封闭模型的算力配额,不如采用开源模型作为基础,掌控自主可控的 AI 能力——尤其当这些开源模型已经足够好且成本低廉。
这种用脚投票的风向转变,不仅出现在技术圈,更在资本圈引发连锁反应:OpenAI 此前天价的数据中心投资承诺,正面对质疑和压力。
OpenAI 高管甚至在公共场合暗示需要政府贷款支持,事后又忙不迭出来「灭火」澄清不寻求政府背书,以平息外界对其烧钱计划的担忧。
当巨头为融资「续命」四处游说时,开源对手们正用实际成绩证明,也许根本不需要那么多钱,也能把事情办成。
行业叙事的改写与泡沫的冷却
DeepSeek 和 Kimi K2 Thinking 带来的并非单纯的「追赶」,而更像是一场对旧路线的证伪。
过去,封闭巨头们的护城河建立在一种假设之上:只有不断投入数量级增长的资金和算力,才能保持模型性能的领先。
这一假设曾让 OpenAI 们在资本市场上如日中天,甚至形成了某种估值泡沫,AI 公司和底层芯片厂商的价值被无限推高,因为所有人相信烧钱会带来奇迹。
然而当开源挑战者以区区百万量级美元达到同类水准,这个故事的结局便不再那么线性。
事实证明,「性能领先的最后 20%」或许并非大多数用户真正需要的,尤其如果为此要付出十倍乃至百倍的价格。
从普通消费者到中小企业,更青睐的是「够用+便宜」的实惠。
OpenAI 等公司无疑依然握有行业顶尖的研究人才和技术积累,但他们再难宣称自己的路线是「唯一正确且必不可少」的。
行业叙事正在转向:与其痴迷于砸钱堆出更大模型,不如在架构创新和工程稳定性上下功夫,以换取成本效率和开放生态。
投资者也日趋清醒,过去见谁谈 AI 就砸钱的狂热减退了许多,现在更关注实际效能和商业可行性。
最危险的对手,不是那个跟你拼烧钱的人,而是那个证明根本不需要烧那么多钱的人。
