昨天,最新一期《Nature》封面刊登了 DeepSeek 团队的研究成果 ——「DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning」。该论文的通讯作者为梁文锋。
在推荐介绍中,《Nature》指出,如果大模型能够规划解决问题所需的步骤,它们往往能更好地完成任务。这种「推理」方式与人类处理复杂问题的思路类似,但对人工智能而言极具挑战。DeepSeek-R1 的研究展示了如何在极少人工标注的情况下,通过强化学习让模型逐步学会推理。
DeepSeek-R1 的训练方式是:模型在正确解答数学问题时获得奖励,答错则受到惩罚。随着训练深入,模型不仅能逐步推理,还具备了自我验证与反思能力,从而在编程和研究生水平的科学问题上展现出更强表现。
值得注意的是,R1 被认为是首个通过权威学术期刊同行评审的大语言模型。Hugging Face 工程师 Lewis Tunstall 评论称:「这是一个备受欢迎的先例。如果缺乏这种公开分享研发过程的规范,我们将很难评估这些系统的潜在风险。」
俄亥俄州立大学研究员 Huan Sun 也表示:「经历严格的同行评审,无疑能有效验证模型的可靠性与实用价值。其他公司也应效仿此举。」
业内人士认为,这不仅是一次科研突破,更是 AI 行业迈向「科学纪律」的重要一步。同行评审机制将迫使企业从「自我宣传」转向「证据与复现」,有助于遏制行业乱象并建立公众信任。