衡宇发自凹非寺
量子位公众号 QbitAI
最近的谷歌像个大漏勺,这不,又有 AIGC 核心成员联手跑路咯!
量子位独家获悉,这回跟谷歌 say byebye 的,是文生图核心团队——AI 绘画模型 Imagen 论文的四位核心作者,出走目的是要搞自己的 AI 公司。虽然公司名称暂未对外公布,但新公司将一以贯之的路线是很清楚的:
以 Imagen 为基础,沿着原来的项目做下去,不仅继续做文生图,还要做视频方向。
核心人才创业,自然少不了 VC 塞钱——已经按 1 亿美元的惊人天使估值完成了首轮融资,而且更多 VC 想给钱而赶不上、投不进。
这也算是文生图、文生视频、AIGC 赛道上,最知名的研究团队之一了。
文生图骨干成员共创 AIGC 新公司
新公司联创四人,Chitwan Saharia、William Chan、Jonathan Ho 以及 Mohammad Norouzi,都出自谷歌。
他们之前精力重点放在 AIGC 的文生图板块,是谷歌用来对抗 DALLE-2 的大杀器 Imagen 的论文共同作者,位置都挺重要的那种。
先来介绍一下Chitwan Saharia,也是 Imagen 的共同一作。
Chitwan 本科毕业于孟买理工学院计算机科学与工程专业,在孟买理工学院和蒙特利尔大学都当过程序和算法方面的研究助理。2019 年加入谷歌,base 多伦多,花了 3 年时间从二级软件工程师做到高级研究科学家,去年 12 月从谷歌离职。
Chitwan 有语音识别、机器翻译的经验,在谷歌工作时,主要负责领导 image-to-image 扩散模型的工作。
第二位 William Chan,也是 Imagen 论文共同一作。他同样出身计算机工程,先后就读于加拿大滑铁卢大学、卡内基梅隆大学,中间在新加坡国立大学当过 1 年交换生。
在卡内基梅隆大学拿下博士学位后,William 还在加拿大最大的社区学院之一乔治布朗学院,主攻烘焙和烹饪(?),学了 3 年。
Willian 从 2012 年起加入谷歌,于 2016 年成为谷歌大脑的一份子,去年 5 月离职时,他已经是谷歌大脑多伦多的研究科学家了。
然后要介绍的是 Jonathan Ho,UC 伯克利博士毕业。
他不仅是 Imagen 论文的 core contribution,还是 Diffusion Model 奠基之作《Denoising Diffusion Probabilistic Models》的一作。
博士毕业于 UC 伯克利计算机科学专业的 Jonathan,之前在 OpenAI 当过 1 年的研究科学家,后来在 2019 年加入谷歌,共工作了 2 年零 8 个月,去年 11 月以研究科学家的身份从谷歌离职。
新公司的最后一位联创叫 Mohammad Norouzi,也是 Imagen 论文的共同一作。
△Mohammad Norouzi△诺鲁兹先生
他在多伦多大学计算机科学博士就读期间,拿到了谷歌 ML 博士奖学金。毕业后他加入谷歌大脑,在那儿工作了 7 年,在谷歌的最后 title 是高级研究科学家,工作重点是生成模型。
同时,Mohammad 也是谷歌神经机器翻译团队的原始成员,SimCLR 的联合发明人。他在 GitHub 主页上小小地透露了自己的最近动态:目前,我在一家初创公司工作,公司使命是推进人工智能的发展水平,帮助人类提高创造力。
我们正在招聘!
这句话以外,关于新公司的更多信息,四人在任何社交平台都没有更详细的透露。
这已经是谷歌最近漏出去的第n波人了。
就拿刚刚过去的 2 个月来说,先是包括顾世翔(Shane Gu,‘让我们一步一步地思考’研究者)在内的至少 4 名谷歌大脑成员加入 OpenAI;情人节时,Hyung Won Chung 和 CoT 最早的一作 Jason Wei 携手组团叛逃 OpenAI。
本周三,您猜怎么着?嘿,又跑了一个:
OpenAI 狂喜,只有谷歌大漏勺本勺受伤的世界诞生了。
Imagen 是什么?
了解完谷歌漏走的这四个人,回头来说说为他们职业生涯赢得掌声的 Imagen 项目。
Imagen 是谷歌发布的文生图模型,发布时间在 DALL-E 2 新鲜出炉一个月以后。
本文开头放的熊猫震惊表情包,就是朝 Imagen 输入“一只非常快乐的毛茸熊猫打扮成了在厨房里做面团的厨师的高对比度画像,他身后的墙上还有一幅画了鲜花的画”后,得出的一张要素完备的 AI 生成画作。
(不好意思,请自行断句)
在 Imagen 出现之前,文生图都共用一个套路,那就是 CLIP 负责从文本特征映射到图像特征,然后指导一个 GAN 或 Diffusion Model 生成图像。
Imagen 不走寻常路,开辟了 text-to-image 新范式:
纯语言模型只负责编码文本特征,具体 text-to-image 的工作,被 Imagen 丢给了图像生成模型。
具体来讲,Imagen 包含一个冻结的语言模型 T5-XXL(谷歌自家出品),当作文本编码器。T5-XXL 的 C4 训练集包含 800GB 的纯文本语料,在文本理解能力上比 CLIP 强不少,因为后者只用有限图文对训练。
图像生成部分则用了一系列扩散模型,先生成低分辨率图像,再逐级超采样。
依赖于新的采样技术,Imagen 允许使用大的引导权重,所以不会像原有工作一样使样本质量下降。这么一来,图像具有更高的保真度,并且能更好地完成图像-文本对齐。
概念说起来简单,但 Imagen 的效果还是令人大为震撼的。
生成的狗子飙车技术一流:
比起爆火的 DALLE-2,Imagen 能更准确地理解同时出现两个颜色要求的情况:
一边绘画一边写字这种要求,Imagen 也成功完成,不仅写得对,还能加光影魔术手般的烟花特效(不是)。
以及对后来研究更有帮助的是,谷歌通过 Imagen 的研究,优化了扩散模型。
首先,增加无分类器引导(classifier-free guidance)的权重可以改善图文对齐,同时却会损害图像保真度。
为了解决这个 bug,在每一步采样时引入动态阈值(dynamic thresholding)这个新的新的扩散采样技术,来防止过饱和。
第二,使用高引导权重的同时在低分辨率图像上增加噪声,可以改善扩散模型多样性不足的问题。
第三,对扩散模型的经典结构U-Net 做了改进,变成了 Efficient U-Net。后者改善了内存使用效率、收敛速度和推理时间。
后来在 Imagen 上微调,谷歌还推出了能“指哪打哪”版本的文生图模型 DreamBooth。只需上传3-5 张指定物体的照片,再用文字描述想要生成的背景、动作或表情,就能让指定物体“闪现”到你想要的场景中。
比如酱婶儿的:
又或者酱婶儿的:
大概是 Imagen 效果太过出色,劈柴哥后来亲自宣发的谷歌 AI 生成视频选手大将,就叫做“Imagen Video”,能生成 1280*768 分辨率、每秒 24 帧的视频片段。
啊,等等,谷歌有 Imagen Vedio,这和四人的新公司不是撞方向了吗?
仔细看了下论文,无论是 Imagen 还是 Imagen Video,各自都有大篇幅涉及风险、社会影响力的内容。
出于安全、AI 伦理和公平性等方面考虑,Imagen 和 Imagen Vedio 都没有直接开源或开放 API,甚至连 demo 都没有。
哪怕市面上出现开源复刻版本,也不是最正宗的味道。
此前就曝出过在谷歌每年的内部员工调查“Googlegeist”中,员工表示对谷歌执行能力不佳的质疑。也许,这四人出走,继续做 Imagen,并做 Imagen 的视频版,说不定就是为了想把项目放到一个更开放的 AI 环境。
而且这种出走创业,也是热钱大钱向 AIGC 汹涌的结果。
所以既然 AIGC 的创投热潮已经在太平洋那头开启,那应该在太平洋这头也不会悄无声息。
或许你已经听说了一些同样的大厂出走创业,欢迎爆料说说~~