明敏白小交发自凹非寺
量子位公众号 QbitAI
爆炸消息——
ViT 三大核心作者集体离职谷歌 DeepMind。下一站:OpenAI!
他们分别是翟晓华(Xiaohua Zhai)、卢卡斯·拜尔(Lucas Beyer)、亚历山大·科列斯尼科夫(Alexander Kolesnikov)。
相关消息已被本人证实,三人均官宣了新动向。
2021 年,他们三人作为共同一作的计算机视觉领域神作 ViT 发布即刷新 ImageNet 最高分。
这项研究证实了 CNN 在 CV 领域不是必需的,Transformer 从 NLP 跨界,一样可以取得先进效果。开创了 Transformer 在 CV 领域应用的先河。
目前这篇论文被引用量已超过4. 9 万。
此外,他们还共同提出了 SigLIP、PaliGamma 等 SOTA 级工作。
几周后,他们将正式加入 OpenAI 苏黎世实验室。
值得一提的是,Wired 方面消息称,三人是被 OpenAI 挖走的。
网友评论:能撬动这一“铁三角”黄金组合,OpenAI 真的太幸运了。
ViT 三大核心作者投奔 OpenAI
Xiaohua Zhai(翟晓华)
此前他是 Google DeepMind 的高级研究员,领导着苏黎世一个多模态研究小组。重点研究多模态数据(WebLI)、开放权重模型 ( SigLIP、PaliGemma )以及文化包容性。
目前谷歌学术引用数超六万多。
2014 年他毕业于北京大学,获得计算机系博士学位;本科毕业于南京大学。一毕业就前往谷歌苏黎世工作。
Lucas Beyer
这位同样也是谷歌 DeepMind 苏黎世小组的一位成员,共同领导着 DeepMind 的多模态研究团队和基础设施。
目前已经撰写超 50 篇论文,被 CVPR、NeurIPS、ICCV 等这些顶级会议接收。
据他个人官网中介绍,他在比利时长大,曾梦想制作电子游戏以及从事 AI 研究。自我认定为「自学成才的黑客和研究科学家,致力于创造飞凡实物」。
他在德国亚琛工业大学学习机械工程,并在那里获得了机器人感知和计算机视觉博士学位。2018 年加入谷歌。
Alexander Kolesnikov
2018 年以来,他就在谷歌大脑,现为 DeepMind 团队工作。之前主要成就包括训练 SOTA 视觉模型*(从 2019 年到 2021 年都实现了 ImageNet SOTA);开放权重模型(SigLIP 和 PaliGemma),以及神经架构方面的工作:BiT、ViT、MLP-Mixer 和 FlexiViT。
除此之外,编写灵活、高性能的研究基础设施,尤其是 Jax。
此前,他在奥地利科学技术研究所(ISTA)攻读博士学位,研究方向是弱监督学习和图像生成模型。
曾是谷歌 CV 的“黄金铁三角”
在谷歌任职期间,三人多次合作并带来了影响领域发展的重要工作。
其中最重要的一篇莫过于 ViT。
这篇研究验证了 Transformer 架构在计算机视觉领域的通用性。在它的基础上衍生出了 Swin Transformer、DeiT(Data-efficient Image Transformers)等。
它创新性提出将图像分割成固定大小的块(patches),并将每个块视为一个序列元素,与 NLP 中的单词类似。然后,这些块通过变换器进行处理。
在许多视觉任务中,ViT 在性能上超过了传统的 CNN 模型,尤其是在大规模数据集上进行训练时表现尤为突出。例如,在 ImageNet 分类任务中,ViT 取得了与最先进的 CNN 模型相当甚至更好的结果。
此外他们还合作推出了 MLP-Mixer、BiT(CV 界的 BERT)等领域内知名工作。
参考链接:
[1]https://www.wired.com/story/openai-hires-deepmind-zurich/