上周,OpenAI CTO 米拉·穆拉蒂(Mira Murati)在一次访谈中表示,大约在一年半后,也就是 2025 年底或 2026 年初,GPT 可以在特定任务上达到博士的智能。这被视为是 GPT-5 的发布时间。
在访谈中,穆拉蒂将 GPT-3 类比为幼儿,GPT-4 等同于聪明的高中生,而 GPT-5 将实现质的提升,达到博士水平。微软 CTO 凯文·斯科特(Kevin Scott)最近也提出相似看法,认为下一代大模型将具备更强的记忆和推理功能,足以应对博士学位考试。
在此之前,OpenAI CEO 阿尔特曼就试图不断释放关于 GPT-5 的消息。他暗示第五代 GPT 可能会是重大的转折点,预计 GPT-5 和 GPT-4 的差距将与 GPT-4 相比 GPT-3 的进步一样显著。他一直不透露具体细节和时间表。
担任多家公司和机构 AI 方面顾问的艾伦·汤普森(Alan Thompson)透露,GPT-5 在内部被称为 “Gobi” “Arrakis”,是一个参数量高达 52 万亿的多模态模型,远大于 GPT-4 的 1.5 万亿 - 2 万亿参数。汤普森此前预测,早在 2022 年 12 月,OpenAI 已完成对 GPT-5 的数据训练,并在今年 4 月完成最终训练,可能在今年底发布。
然而,穆拉蒂的判断将 GPT-5 的发布时间又延迟了一年。
与此同时,Anthropic 已经领先通用人工智能(AGI)的进程。其最新推出的 Claude 3.5 Sonnet,在研究生级推理(GPQA)测试中得分 67.2%,首次超越领域内专业人类博士 65% 的得分,同时在 MMLU(语言理解能力)、数学、多模态视觉能力等基准测试中,也显示出领先于 GPT-4o 等主流大模型的能力。
汤普森估计这意味着 AGI 的实现已经完成了 75% 的进程,还有四分之一的差距。
根据李飞飞等科学家的观点,大模型始终无法拥有感知能力,而感知能力是实现通用智能的核心要素 —— 它基于生理状态,让我们能够具有体验饥饿、品尝食物、观察世界等主观感受。但由于大模型本质上是数学模型,缺乏生理基础,无论模型规模多大,都无法发展出这种感知能力。
GPT-5 的智能提升也将引发人们对 AI 安全性的关注。穆拉蒂在访谈中指出,指导一个更智能的 AI 系统其实更为简单,只需告知其避免某些行为即可。她认为,安全与能力的研究可以并行不悖:在训练模型之前,预测其潜在能力,可以在训练过程中逐步加强安全措施。
同时,穆拉蒂强调,AI 安全的责任不应仅由大模型公司承担,而是整个社会,包括政府、内容创作者等的共同责任。大模型公司要让 AI 产品推向市场,使得公众了解其潜力与风险。关于价值观的对齐问题,她也认为应该让产品接触更广泛的用户群体,以吸纳更多元化的价值观。
更重视安全还是产品发展,OpenAI 已经做出选择。
去年底,OpenAI 发布其安全框架,通过评估、打分潜在风险指标来对模型进行风险评估,并对应采取安全措施。但专家认为,这种做法可能为人类判断和错误留下空间。今年 5 月成立的安全顾问委员会,由于成员全是公司内部人员,其独立性和有效性也受到外界的质疑。
从去年 11 月开始,一些注重 AI 安全的员工相继离开 OpenAI。今年 5 月超级对齐团队的两位负责人伊尔亚·苏茨克维(Ilya Sutskever)和杨·莱克(Jan Leike)离职,并批评公司已经偏离以安全为中心的文化。随后,该团队解散,苏茨克维选择成立了一家专注于 AI 安全的新公司 SSI。(实习生朱悦)