Gemini 3「开眼」像素级操控!谷歌回应DeepSeek-OCR2

  新智元报道

  编辑:定慧

  谷歌 Google DeepMind 刚刚推出新能力,用代码赋予 Gemini 3 Flash「法眼」。

  没想到吧,Google DeepMind 刚刚为 Gemini 3 Flash 推出了一个重量级新能力:Agentic Vision(智能体视觉)。(难道是被 DeepSeek-OCR2 给刺激到了?)

  可以看到,这项技术彻底改变了大语言模型理解世界的方式:

  从过去的「猜」变成了如今的「深度调查」。

  该能力由 Google DeepMind 团队推出,核心产品经理 Rohan Doshi 表示,传统的 AI 模型在处理图片时,往往只是静态地看一眼。

  如果图片里的细节太小,比如微处理芯片上的序列号或者远处模糊的路牌,模型往往只能靠「猜」。

  而 Agentic Vision 引入了一个「思考-行动-观察」(Think-Act-Observe)的闭环:

  模型不再是被动接收像素,而是会根据用户的需求,主动编写 Python 代码来操纵图像。

  这一能力直接让 Gemini 3 Flash 在各类视觉基准测试中实现了5% 到 10% 的性能跨越。

  Agentic Vision:智能体视觉新前沿

  DeepMind 探索的方法概括起来就是:利用代码执行作为视觉推理的工具,将被动的视觉理解转化为主动的智能体过程。

  什么意思呢?我们知道,目前的 SOTA 模型通常是一次性处理图像。

  但 Agentic Vision 引入了一个循环:

  1.  思考(Think):模型分析用户查询和初始图像,制定多步计划。

  2.  行动(Act):模型生成并执行 Python 代码来主动操纵图像(如裁剪、旋转、标注)或分析图像(如运行计算、计数边界框等)。

  3.  观察(Observe):变换后的图像被追加到模型的上下文窗口中。这允许模型在生成最终响应之前,以更好的上下文检查新数据。

  Agentic Vision 实战

  通过在 API 中启用代码执行,开发者可以解锁许多新行为。

  Google AI Studio 中的演示应用已经展示了这一点。

  1. 缩放与检查(Zooming and inspecting)

  Gemini 3 Flash 被训练为在检测到细粒度细节时进行隐式缩放。

  PlanCheckSolver.com 是一个 AI 驱动的建筑计划验证平台,通过启用 Gemini 3 Flash 的代码执行功能来迭代检查高分辨率输入,将准确率提高了5%。

  后台日志视频展示了这个智能体过程:Gemini 3 Flash 生成 Python 代码来裁剪和分析特定的补丁(例如屋顶边缘或建筑部分)作为新图像。

  通过将这些裁剪图追加回其上下文窗口,模型在视觉上确立其推理,以确认是否符合复杂的建筑规范。

  2. 图像标注(Image annotation)

  Agentic Vision 允许模型通过标注图像与环境交互。

  Gemini 3 Flash 不仅仅是描述它看到的内容,还可以执行代码直接在画布上绘制以确立其推理。

  在下面的例子中,模型被要求数 Gemini 应用中一只手上的数字。

  为了避免计数错误,它使用 Python 在它识别的每个手指上绘制边界框和数字标签。

  这种「视觉草稿纸」确保其最终答案是基于像素级的完美理解。

  3. 视觉数学与绘图(Visual math and plotting)

  Agentic Vision 可以解析高密度表格并执行 Python 代码来可视化发现。

  标准 LLM 在多步视觉算术中经常产生幻觉。

  Gemini 3 Flash 通过将计算放到到确定性的 Python 环境中来绕过这个问题。

  在 Google AI Studio 的演示应用示例中,模型识别原始数据,编写代码将之前的 SOTA 归一化为 1.0,并生成专业的 Matplotlib 条形图。这用可验证的执行取代了概率性猜测。

  如何上手

  Agentic Vision 今天已通过 Google AI Studio 和 Vertex AI 中的 Gemini API 提供。

  它也开始在 Gemini 应用中推出(通过从模型下拉菜单中选择 Thinking 访问)。

  以下是一个简单的 Python 代码示例,展示了如何调用这一能力:

print (response.text)

  未来展望

  Google 表示,Agentic Vision 才刚刚开始。

  目前,Gemini 3 Flash 擅长隐式决定何时放大微小细节。虽然其他功能(如旋转图像或执行视觉数学)目前需要显式的提示引导来触发,但 Google 正在努力在未来的更新中使这些行为完全隐式化。

  此外,Google 还在探索如何为 Gemini 模型通过更多工具(包括网络和反向图像搜索)来进一步确立其对世界的理解,并计划将此功能扩展到 Flash 以外的其他模型尺寸。

  彩蛋:难道是因为 DeepSeek?

  这就很有意思了。

  DeepSeek 前脚刚开源了堪称「OCR 2.0」的 DeepSeek-OCR,谷歌后脚就发布了 Gemini 3 的 Agentic Vision。

  这真的是巧合吗?

  我们不妨大胆猜测,谷歌这次的「深夜炸场」,极有可能是被 DeepSeek 逼出来的。

  理由有三:

  1.  时间点的惊人巧合

  1 月 27 日,DeepSeek 刚刚发布了 DeepSeek-OCR2,搭载核心黑科技DeepEncoder V2。它抛弃了传统的机械扫描,让 AI 学会了像人类一样「按逻辑顺序阅读」,仅用几百个 Token 就实现了对复杂排版和图表的完美理解。

  谷歌同一天立马拿出 Agentic Vision,仿佛在这场「视觉军备竞赛」中隔空喊话:「你们让 AI 看懂逻辑,我们直接让 AI 上手操作」。

  2.  技术路线的巅峰对决

  DeepSeek-OCR2 走的是「内功流」,通过 DeepEncoder V2 模拟人类的视觉注意力机制,动态重组图像信息,把「看」这个动作做到了极致的轻量化和逻辑化。

  而谷歌的 Agentic Vision 走的是「外设流」,也就是「不光要看清,还要能动手」。DeepSeek 在教 AI 怎么「用心看」,谷歌在教 AI 怎么「用手算」。

  3.  争夺视觉AI定义的终局

  DeepSeek-OCR2 证明了即便是 3B 的小模型,只要「视觉逻辑」对路,也能吊打大模型。谷歌则试图用「代码执行」来降维打击:你视觉再好也是「看」,我能写代码验证才是「真懂」。

  这场仗,本质上是谁能重新定义「机器视觉」——是极致的感知,还是全能的交互?

  不管是不是「应激反应」,这场神仙打架,最后爽的还是我们程序员。

  参考资料:

  https://blog.google/innovation-and-ai/technology/developers-tools/agentic-vision-gemini-3-flash/?linkId=43682412