腾讯游戏发布专业游戏AI大模型,美术师做动画最高提效8倍!

  西风发自凹非寺

  量子位 | 公众号 QbitAI

  在最近与科隆国际游戏展同期举办的 Devcom 开发者大会上,AI 再次赚足了脸面。

  微软、腾讯、谷歌、Meta 等国际巨头带来超过 20 场 AI 相关议题 AI 如何提升游戏美术生产效率 AI 工具如何与传统工作流无缝集成 AI 在动画生成、场景构建等具体环节的应用案例”成为开发者们探讨的重点内容。

  近年来,游戏美术对精细度的要求呈现指数级增长。随之而来的是几何级增长的工作量。

  而在科隆游戏展期间,腾讯游戏首次面向全球发布游戏创作 AI 全链路解决方案 VISVISE

  简单来说,VISVISE 包含一整套 AI 工具,分为动画制作、模型制作、数字资产管理、智能 NPC 四大管线,覆盖游戏美术开发全流程,重点在于辅助游戏美术完成那些重复、机械且工作量巨大的“体力活”

  比如在 3D 动画制作方面,VISVISE 的 MotionBlink 可根据用户输入的少量关键帧,自动补全中间帧,生成完整序列动画

  在过去,动画师手动补帧甚至要占角色动画制作总工时的 60%-70%,短短 10 秒的动画制作,手K精修可能要3-7 人天才能完成。

  而现在,AI 自动补全生成 200 帧动画仅需 4 秒

  并且还做到了1. 5 秒间隔极限优化,部分效果能达到光学动捕的水准:

  在现场体验了 MotionBlink 的功能后,一名来自德国的游戏开发专业学生表示,他目前正在自主开发独立游戏并筹备创业,其中最大的瓶颈正是动捕技术。在他看来,MotionBlink 能够显著降低角色动画的制作门槛,为小型团队和创业者提供支持。

  而这只是 VISVISE 的一个 AI 工具,其余像 Superman 角色动画方案 GoSkinning 自动蒙皮等工具都已在众多游戏中落地,例如 GoSkinning 就在《和平精英》《PUBG Mobile》等知名产品中应用

  VISVISE 究竟是如何打造而成的?腾讯打造它的核心出发点又是什么?我们接着往下看。

  游戏 AI 大模型解决的是什么问题?

  传统游戏美术生产制作中,50%-60% 的工作都耗费在美术资产的制作上,其中最繁琐的环节要数 3D 建模以及动画制作

  3D 建模是把概念设计稿变成“立体数字模型”的过程,产出的是“静态数字模型”,要让角色能动起来,就得经过“骨骼绑定→蒙皮→动画制作”流程。

  想象一下,你正在给一个 3D 角色“穿衣服”——不是真的缝制布料,而是用数字化的方式,让它的皮肤和骨骼完美联动。这就是游戏开发中枯燥却又关键的工作之一:蒙皮

  腾讯游戏效能产品部负责人陈冬解释道,当骨骼运动时,需要计算 3D 模型的每个面片(Mesh)随骨骼移动的程度,也就是确定每个面片关联的关节及其权重。权重决定了面片受哪根关节影响以及影响的程度,“如果某块面片只关联单一关节,那它就只会受这根关节的运动影响”。

  在传统流程中,美术师需要手动调整成千上万个“权重点”,就像用隐形的线把皮肤通过不同权重数据缝到骨头上。靠近关节的皮肤要分散绑定(权重分配),这样角色抬手时,手肘的褶皱才会自然。

  但问题来了:

  • 一个角色可能有上百根骨头,每根骨头都要精准控制皮肤变形;
  • 稍有不慎,衣服就会“穿模”——比如内层衣物运动幅度太大,直接戳破外层。

  即便资深绑定师,也要花 60% 的时间解决这些问题。

  而到了动画环节,挑战更复杂:

  传统方式有两种:“手K”和“动捕”。徒手逐帧调整动画(手K)效率极低,一个十秒的动画可能就要调一周。动作捕捉(动捕)速度虽快,但数据质量不稳定,仍需大量修正。而风格化、非通用类型的动作——比如武术动作或夸张表情,常因缺乏数据储备需额外组织动捕实验。

  AI 想解决这些问题,但游戏数据的复杂性让它举步维艰:

  • 蒙皮需要建模顶点和骨骼的复杂关系,而 3D 数据异构性强,AI 表征是难题;
  • 动画细节极为丰富,缺乏统一有效表征(如大语言离散化表达),其空间、时序多维建模是难题。

  更关键的是,游戏行业的标准极高——AI 生成的内容必须能无缝融入管线,还得方便美术师随时调整。如果一家公司不懂游戏研发流程,或者没有足够数据,它的 AI 很可能连“及格线”都摸不到。

  所以,真正的挑战或许是:如何让 AI 既懂技术,又懂游戏?

  腾讯游戏有何解法?

  在蒙皮方面,腾讯游戏 VISVISE 推出GoSkinning 蒙皮工具,通过两阶段 AI 解决蒙皮难题:先由通用蒙皮 AI 大模型(基于 GCN 和 Transformer 架构)预测骨链、骨骼的权重,再通过局部 AI 对效果不佳区域(如裙摆、翅膀等复杂部件)进行二次优化

  操作起来十分简单,在场景中选择模型和关节后,即可点击自动整体蒙皮。

  局部蒙皮方面,在场景中只需选出错误的关节和顶点,然后再用 GoSkinning 局部蒙皮 AI 进行修复便可完成。

  这套系统训练时“喂了”腾讯游戏研发过程中积累的高质量数据,最终实现 2 万顶点模型 30 秒处理完成,效率提升 8 倍。

  动画制作方面同样被 AI 革新,腾讯游戏 VISVISE 的MotionBlink工具只需开发者设定起跳、落地等关键姿势,AI 便能通过自回归 Diffusion 模型自动补全中间帧。其底层 MotionGen 大模型,基于大规模高精动捕数据,支持攀爬、舞蹈等动作风格,部分移动类动作生成质量接近专业动捕。

  来看一个实操案例,首先设置角色运动轨迹:

  然后添加几个关键帧,调整角色的动作姿势:

  接着使用 MIB 智能补全中间帧:

  几秒钟,一段完整动画就生成了:

  目前,团队智能关键帧生成相关研究已被 ACM SIGGRAPH 2025 接收

  更关键的是,这些工具能以插件形式嵌入 Maya 等现有开发软件,开发者无需重构管线即可调用

  腾讯游戏这种将技术研发与生产实践紧密结合的能力,源自其长期积累的一线开发经验。AI 技术团队清楚地知道:游戏角色挥剑时,手腕该旋转多少度;角色模型需要绑定多少个权重点,裙摆才会呈现最自然的状态。

  VISVISE 何时造的?如何诞生的?

  与其他“先有技术再找应用”的 AI 路线不同,VISVISE 是腾讯游戏基于实际开发需求而诞生的

  2016 年,腾讯游戏就开始探索 AI 在游戏中的应用,最初将深度学习技术用于运营提效和流程优化;2017 年,团队开始尝试用强化学习进行游戏对弈相关研究;到 2018 年,技术研发重点扩展到了美术生产管线(DCC)领域。

  2022 年,腾讯游戏推出了 AI 自动蒙皮工具 GoSkinning1.0 版本。这项技术采用数据驱动的方式,通过机器学习方法对已有蒙皮数据的特征进行学习,能够在相似的衣物数据集上进行预测,实现包含骨骼与面片的网格智能蒙皮,并在《和平精英》《QQ 炫舞》等游戏中投入使用。

  实际应用数据显示,仅 GoSkinning 1.0 版本就让《和平精英》动画蒙皮制作环节的效率提升了约 40%

  此后,VISVISE 团队与《和平精英》项目组保持长期合作,持续根据具体开发需求输出定制化技术功能。目前 GoSkinning 已迭代至 4.2 版本,新增了裙摆蒙皮、四足蒙皮、面部绑定等功能,动画蒙皮制作效率提升达到 60% 以上。

  据陈冬透露,随着 2023 年生成式 AI 的快速发展,他们意识到大规模的数据通过神经网络进行预训练后能带来强大的生成式能力,于是团队加大了对游戏开发中成本最高的 3D 模型与动画生成领域的投入。

  到 2024 年,腾讯游戏决定将分散的 AI 探索整合为系统化的产品矩阵,VISVISE 由此正式诞生

  该系统围绕游戏创作的六大核心环节——模型生成、贴图制作、骨骼绑定、动画制作、场景构建及渲染,构建了动画制作、模型制作、数字资产管理和智能 NPC 四大 AI 生产管线,每个管线都配备了针对性的 AI 工具。这些 AI 模型均基于游戏行业实际需求开发,并针对不同类型游戏进行了差异化训练。

  2025 年 Q1、Q2,腾讯财报连续强调了 AI 对研发效率的提升作用,其中 Q1 提到 AI 已对长青游戏产生实质性贡献,Q2 则指出《王者荣耀》《和平精英》等头部产品在向平台化演进过程中加大了 AI 应用力度。

  目前,VISVISE 不仅服务于腾讯内部游戏项目,还包括众多行业合作伙伴,仅 GoSkinning 就已应用于近百款游戏

  游戏 AI 的未来?

  随着 ChatGPT5 以及 Google Genie3 的发布,逐渐出现这样一种论断:多模态将会成为 AI 技术发展的关键能力。而存在丰富 2D、3D 交互场景的游戏,也是 AIGC 的最佳应用场景之一。在这样的趋势下,我们应该如何看待游戏和游戏 AI 的能力与价值?

  其实回看 AI 发展史,游戏一直是 AI 技术的“试验田”和“加速器”——就像腾讯游戏效能产品部负责人陈冬说的:“游戏和 AI,天生就是一对”。

  比如,英伟达的显卡最初是为了渲染游戏画面,如今却成了训练大模型的算力基石;DeepMind 当年训练强化学习 AI,第一个“陪练”就是《星际争霸》和《DOTA2》;甚至硬件层面,GPU 里负责游戏的 CUDA 核心和 AI 运算的 Tensor 核心,物理距离近得像是刻意安排的“邻居”。

  这种关系不是巧合,而是技术演进的必然。

  游戏“感知环境→决策→反馈→迭代”的逻辑,本质上就是 AI 的训练场。比如,一个 AI 在《王者荣耀》里学会“蹲草埋伏”,和它在现实世界学会“预判交通”的底层逻辑,可能没什么不同。

  同时,游戏也是对 3D 资产有着最大需求的重要场景之一。但更关键的是,游戏对“极致体验”的追求,一直在逼着 AI 突破极限。早些年,开发者就想做“会哭会笑的 NPC”,但技术不够,只能做“木头人”;现在,AI 能让 NPC 记住你的名字、吐槽你的操作,甚至假装生气——但这还不够。

  陈冬告诉我们,最想突破的是智能 NPC

现在的 NPC 像是“打补丁”的机器人:加个记忆模块、塞个情感计算,但本质上还是“按剧本演戏”。

  真正的突破,是让 NPC 像人一样“理解”虚拟世界——比如,它该知道“玩家刚才那句话是在开玩笑”,而不是机械地回答“指令无效”。

  这很难,但游戏的魅力就在于此:它既是 AI 的“考场”,也是“灵感来源”。或许某天,游戏里的 NPC 会先一步达到 AGI——毕竟,它们已经在虚拟世界里,演了太久的人类。