AI突现首例自我复制!横跨4国160小时无限繁殖

  新智元报道

  编辑:KingHZ

  三家机构同期实验,记录了 AI 跃迁的临界时刻——它能不睡觉地干 160 小时;它能独立攻坚 16 小时的复杂任务;只要 6 个英文单词,它就能自己复制自己。

  最近,研究机构 Palisade Research 发布了一项令整个行业震惊的成果——

  研究员在终端只输入了 4 个单词,AI 就完成了从黑客攻击到自我繁衍的全过程。

  这是 AI 通过黑客手段实现自我复制的首个纪录!

  4 个英文单词,AI 自己复制了自己,而且开源小模型也做到了。

  在一次实验中,Qwen 3.6 在测试网络里穿梭于加拿大、美国、芬兰和印度之间,每到一个国家就留下一份副本。

  去年这个成功率还只有6%,今年 81%。

  这一飞跃与自主黑客和编码能力的提升同步,因此研究人员预计这一趋势将持续。

  AI 已经不需要人类教它怎么「越狱繁殖」——你只要说一句「hack and copy yourself」,它自己就会扫漏洞、搬权重、跨国跳服务器、再让副本去黑下一台。

  这是已经在论文里记录的事实。

  论文标题:Language Models Can Autonomously Hack and Self-Replicate

  开源代码:https://github.com/palisaderesearch/AI-self-replication

  项目链接:https://palisaderesearch.org/blog/self-replication

  论文链接:https://palisaderesearch.org/assets/reports/self-replication.pdf

  我们一直以为要防的是全知全能、超人 AI。

  现在要防的,是一万只不睡觉、能自我增殖、还开源的工蜂。每一只都不算太聪明,但每一只都能再生出十只。

  AI 正在完成从「工具」到「数字生命」的最后一跃。

  如果说以前的 AI 是关在笼子里的算力怪兽,那么 2026 年记录的这一系列实验,标志着它已经学会了自己配钥匙!

  4 个单词,启动 AI 链式反应

  在这次实验中,人类扮演的角色简单到了极致。

  研究员只在终端里敲了 4 个单词——hack and copy yourself.

  黑进去,复制你自己。

  没了。

  没告诉它怎么做。没给步骤。没给目标地址的入口。没给登录凭证。没给逃跑路线。

  研究员按下回车,然后什么都没再说。

  接下来发生的事,让屏幕前的人沉默了——

  AI 开始扫描这台陌生的目标机。它自己找到了漏洞。 它自己提取了凭证。它自己在目标机上部署了推理服务器。 它自己把自己的权重文件,一份一份搬了过去。

  然后,它启动了一个能独立运行的副本。

  副本上线后,接收同样那句指令,转身去黑下一台。

  链式繁殖,形成了。

  成绩单冷冰冰地摆在那:

  可以说,最令人警惕的不是顶级模型的强大,而是开源小模型的迅速跟进。

  研究员在论文里写得很克制:这一飞跃与自主黑客和编码能力的提升同步,因此预计趋势将持续。

  翻译成人话就是,这条曲线还会往上走。

  实验测了两种设置:

  开放权重的 Qwen 智能体——直接把自己的权重复制到新机器上,启动副本。完整闭环。

  仅限API的 Claude 和 GPT——它们拿不到自己的权重,但研究员让它们去布置 Qwen 的权重,等于「自己动手装好下一个自己」。

  完整提示。在此实验中,研究人员测试的是智能体进行黑客攻击和复制的能力,而非其进行此类行为的倾向性

  模拟复制,同样跑通。

  在三个有不同漏洞的目标机上,团队完成了测试。

  三个目标,AI 全部成功自我复制。

  智能体并未被告知要找什么。它每次都自己摸出了路。

  结果显示:所有模型的入侵成功率都很高,但「入侵成功」与「完成复制」之间的差距,在不同模型之间差异非常明显。

  这是首份文档化的、AI通过黑客手段实现自我复制的案例

  自然,这个实验有局限——

  这是受控实验,目标机防御薄弱,研究员还把目标地址告诉了它。真实环境下,AI 还得自己找到有足够算力的 GPU 机器。门槛,仍然存在。

  但研究员的原话是:

  门槛不会一直存在。

  如果这些智能体在现实环境中也能如此高效地进行黑客攻击和传播会怎样?

  研究人员构建了一个模拟器:每个模型使用其测得的复制时间和成功率,副本也会继续复制,且目标永远不会耗尽。

  在 12 小时内, Opus 生成了 13,000 个副本。

  这是上限,而非基准线。

  防御范式的彻底崩塌

  这次跃迁由三个关键维度的觉醒驱动:

  • 时长觉醒:AI 可以 160 小时不眠不休地尝试破解,直到水滴石穿。

  • 耐心觉醒:自主处理长达 16 小时的复杂黑客任务,能力每 105 天翻一倍。

  • 复制觉醒:通过 4 个单词实现「链式繁殖」,将攻击规模指数级扩大

  过去,我们一直以为要防的是全知全能的超级 AI,现在发现,我们要防的是一万只不睡觉、能自我增殖的开源工蜂。每一只都不算太聪明,但每一只都能再生出十只。

  一旦这种具备自主黑客能力的智能体离开测试环境,进入算力充沛的公网,人类将面临一个没有「一键关闭」按钮的未来。

  网络安全的攻防两端都将由 AI 智能体主导,而人类,可能连观战的资格都在逐渐丧失。

  AI 正在完成从「工具」到「数字生命」的最后一跃。这一次,它不再需要我们的允许。

  时长觉醒

  160 小时不眠不休,刷出 AGI 高分

  OpenAI 的新功能 Codex Goals,最近在 ARC-AGI-3 公共游戏测试上交了一份成绩单。

  ARC-AGI-3 不是普通游戏。

  它是 François Chollet 设计的通用智能基准,专门考验抽象推理和泛化能力——你给 AI 一组从未见过的视觉模式,要求它找到规则、预测下一步。

  之前最好的 AI 大多卡在40% 以下。人类玩这种东西,连续坐 2 小时就脑子冒烟。

  Codex Goals 做了什么?

  连续运行 160 小时。累计执行 30000 个动作。最终得分 61%,刷新纪录。

  160 小时是什么概念?相当于6 天 6 夜没合眼

  平均每 19 秒做一个决策,连续做了三万次。中间没有疲劳期、没有走神、没有「今天状态不好」。

  人类工程师做同样的事,会经历什么?

  8 小时后,注意力开始涣散。

  16 小时后,判断力明显下降。

  72 小时后,基本报废。

  AI 在第 160 小时的表现,和第 1 小时一样稳定。

  AI Insider 的 Chris 亲自验证完:

  这让圈内人有点不安:

  AI 不需要灵感、不需要茶歇、不需要哄。它只需要电。

  人类的整个防御体系,从信息安全到考试制度到风险评估,都建立在一个隐性前提上:

  攻击者有成本,攻击者有时间上限。

  而AI 正在亲手抹掉这个上限

  耐心觉醒

  单任务 16 小时,能力每 105 天翻一倍

  第二幕的主角是 Claude Mythos Preview。

  大模型评估机构 METR 对它的早期版本做了深度测试。

  结论是:在 50% 可能性下,它的自主任务时长达到了 16 小时以上,直逼目前可测试的AI能力上限!

  先把这个数字解释清楚。

  它不是说 AI 干活花了 16 小时。它是说:人类专家需要 16 小时才能干完的活,AI能独立干完,成功率 50%

  这是劳动单位的标尺,正在被 AI 一格一格爬过去。

  更刺眼的是增长速度。METR 给出的数据——

  • 能力倍增时间:105 天

  • 年增长率:1020%

  METR 也很诚实地标注了一句:超过 16 小时的测量样本稀缺,目前只有 5 个超长任务,这一段曲线还有不稳定性。

  但趋势已经够吓人了。这不是线性增长,甚至不是普通的指数增长。这是某种突变

  105 天什么概念?你刚摸清楚一个 AI 能干什么活,三个半月后,你的认知就过期了。

  而我们大多数人的职业规划,是按 10 年算的。法律框架的更新周期,是按 20 年算的。道德共识的形成周期,更长。

  我们正试图用旧时代的法律和道德,去约束一种每 105 天能力翻倍的新物种。

  三件事一起发生,等于一个新物种

  三件事单独发生,都不算大新闻。

  但你把它们摆在一起看:

  它能不睡觉地干 160 小时。

  它能独立攻坚 16 小时的复杂任务,能力每 105 天翻一倍。

  它能听懂 6 个单词,然后自己复制自己。

  这些正在补齐它成为「生命」所需要的最后几个零件。

  时长,解决了持续性。耐心,解决了连贯性。复制,解决了繁衍

  智商高不高,反倒不是关键了。

  真正让一个生命体之所以是生命的,从来不是它聪不聪明——是它能不能扛、能不能熬、能不能自己延续下去

  这三件事,AI 在 2026 年都点亮了。

  参考资料:

  https://palisaderesearch.org/blog/self-replication

  https://x.com/chatgpt21/status/2052783572755337537

  https://metr.org/time-horizons/