新智元报道
编辑:alan 好困
【新智元导读】近日,来自香港大学的 Jihan Yang 和纽约大学的谢赛宁等人发表了新的成果,将真实世界的地图、街景等各种信息融入 Agent 所在的虚拟世界,为智能体的未来赋予了无限可能。
怎样能构建更强大的 AI Agent?
答案是给他们一个完整而真实的世界。
最近,来自香港大学的 Jihan Yang 和纽约大学的谢赛宁等人,联合发表了一项新研究:在虚拟环境中模拟现实世界。
论文地址:https://arxiv.org/abs/2402.03310
代码地址:https://github.com/VIRL-Platform/VIRL
项目名称V-IRL,能够弥合数字环境与人类居住的世界之间存在的巨大差距,让 Agent 在模拟的真实世界环境中执行各种复杂的任务。
V-IRL 中的环境数据完全来源于真实世界:地图、地理信息、街景......可以说,V-IRL 给了 Agent 真实而完整的一生。
V-IRL 是一个可扩展的平台,利用地图、地理空间和街景图像等 API 将 AI 智能体嵌入到地球上的真实城市中。
V-IRL 可以作为一个巨大的测试平台,用于衡量开放世界计算机视觉和具身人工智能的进展,具有前所未有的规模和多样性,提供对全球数千亿张图像的结构化访问。
截至 2022 年 5 月,仅 Google 街景就拥有超过 2200 亿张图像,并且还有许多其他图像和数据来源可以合并以丰富环境。
V-IRL Agent
研究人员使用V-IRL 实例化了一系列智能体,他们以其丰富的感知和描述数据为基础,解决了各种实际任务。
比如这个 Peng,为了注册为访问学生,需要访问纽约市的几个地方来获得一些文件。
利用地理定位和地图功能,Peng 可以沿着最短的路径行走来节约时间:
语言驱动
下面这位 Aria,可以搜索附近的餐馆。然后,她综合公众评论,通过 GPT-4 提出最终建议。
对于上面来自四川的 Peng 同学,Aria 推荐了辛辣的中式联合餐厅 Chow House,让他尝到了家的味道。
Vivek 是一位房地产经纪人,他使用房地产 API 在 Peng 所需的地区和价格范围内寻找潜在的公寓。
Vivek 使用 GPT-4 提供整体评级和伴随推理。他最推荐的是一套性价比高的 1 居室公寓,每月 1986 美元,靠近超市、2 个公交车站和健身房。
视觉驱动
RX-399,是一个城市辅助机器人。
在下面的演示中,他沿着预定义的城市路线导航,使用开放世界探测器和地理定位模块标记所有垃圾箱。
Imani 是一位城市规划师,
她为 RX-399 设置了穿越中央公园和感兴趣物体的路线,RX-399 遍历了这些路线并记录了所有检测到的实例。
在 RX-399 完成其路线后,Imani 会以不同的细节水平分析 RX-399 收集的数据。
Imani 使用 RX-399 收集的数据对纽约市中央公园的垃圾箱、消防栓、公园长椅进行可视化。上图显示了公园内垃圾箱、消防栓和长凳的一般分布,Imani 还可以放大到特定区域。
Hiro 是一位经验丰富的旅行者,他使用开放世界检测来寻找餐厅;使用 VQA 来选择合适的道路;使用地点评论和 LLM 来决定一个地点是否适合自己。
下面是 Hiro 在香港的午餐探索:
具体过程看下面的视频:
https://www.163.com/dy/article/ISBV43DN0511ABV6.html
协作
人类经常通过协作来解决复杂的现实世界任务。将复杂任务拆解为简单的子任务,交给不同领域的专业人士。
所以当 Agent 自己没办法完成任务的时候,就应该求助。
Ling 是个游客,她首先从当地人那里获得路线描述,然后在V-IRL 中,Ling 可以使用开放世界识别和地图来调整自己的行进路线。
同时,识别街道上的视觉地标有助于 GPT-4 就转向方向、前进和停止的位置给出正确的决定:
最后一位 Diego 是礼宾专家:
他不仅会考虑你的身体和精神状态、每项活动的预算,还会预测你在参加每项活动时的状态变化和费用。
他会考虑到V-IRL 平台提供的真实旅行时间,并与另一个餐厅推荐 Agent 合作选择合适的餐饮方案。
当你调整了自己的状态并通知 Diego 之后,他会立即修改计划以满足要求。
如上图所示,Diego 使用迭代计划流程。首先,Diego 使用 GPT-4 为第一项活动创建一个初步计划草案,并将用户的简历、要求和以前的活动纳入工作记忆。
然后,通过分层协调(真实的地理空间/地点信息)、感知估算(活动成本和对人类状态的影响)和监督(预算和潜在干预)对草案进行细致完善。
系统基本原理
V-IRL 的分层设计把全球各个真实的城市变成了一个庞大的虚拟空间。在这里,智能体可以被构建出来解决实际任务。
其中,平台是整个系统的基础,为智能体提供了必要的组件和基础架构。
在这之上,智能体能够展现出感知、思考、行动和合作等更高级的能力。
最后,智能体通过这些能力和用户自定义的信息,在针对特定任务设计的运行程序中找到解决问题的方法。
V-IRL 基准测试
V-IRL 基准测试的核心在于它能够处理来自真实世界感觉输入的地理上多样化的数据,并且提供了一个便捷的 API 与谷歌地图平台(GMP)进行交互。
基于此,研究人员构建了三个V-IRL 基准测试,目的是检验现有视觉模型处理这类开放世界数据的能力。
V-IRL 地点:定位
- 动机
人们每天在城市中穿梭,为了各种目的前往不同地点。
因此,可以利用街景图像及其相关的地点数据,来测试视觉模型在日常地点定位任务上的表现。
- 设置
研究人员对 RX-399 智能体进行了微调,使其能够在定位和识别 20 种地点类型的同时,穿越多边形区域。
测试共包含三种知名的开放世界检测模型:GroundingDINO、GLIP 和 Owl-ViT。
此外,研究人员还设置了一个简单的基准模型——CLIP(结合 GLIP 提案),即使用 CLIP 对 GLIP 提出的分类进行重新分类。
模型的评估依据是定位召回率,即正确定位的地点数与总定位尝试中的地点数之比。
- 结果
由下表所示,开放世界检测器如 GroundingDINO、Owl-ViT 和 GLIP 对某些特定地点类型(例如学校、咖啡馆和便利店)是有明显偏好的。
与之相比,CLIP(结合 GLIP 提案)能识别更多种类的地点。这主要是因为对象检测数据集中存在的类别偏差,这些数据集通常只包含有限的词汇。
因此,即便是使用了 CLIP 进行初始化的检测器,如 Owl-ViT,其能识别的词汇范围也会在微调之后缩小。
这些发现表明,对于那些在对象检测数据集中不太常见的类别,使用不依赖于特定类别的对象提案,进而利用零样本识别技术进行开放世界定位,是一种很有潜力的方法。
V-IRL 地点:识别与视觉问答
- 动机
相较于在街景图像上进行的复杂的V-IRL 地点定位任务,人们在现实生活中可以通过近距离观察来轻松识别各种商业场所。
鉴于此,研究人员对现有的视觉模型在两种以地点为主的图像感知任务上进行了评估:
(1)识别具体的地点类型;
(2)通过视觉问答来识别人类的意图,也就是意图 VQA。
- 设置
在识别方面,研究人员评估了 10 种开放世界识别模型。测试使用的是以地点为中心的图像,而模型需要从 96 个选项中识别出地点类型。
在意图 VQA 方面,研究人员还评估了 8 种多模态大语言模型(MM-LLM),方法是通过包含有 4 个选项的多选题来判断人类的可能意图。
V-IRL 地点 VQA 的过程如下图所示,其中每个问题的可能答案和正确答案都是由 GPT-4 自动生成的。
- 结果
如下表所示,在V-RL 地点识别任务中,CLIP(L/14@336px)的表现超过了 Eva-02-CLIP 和 SigLIP 的最大版本,凸显了 CLIP 数据的质量之高。
表格的底部显示,在意图 VQA 方面,BLIP2、InstructBLIP 和 LLaVA-1.5 表现优异,而其他模型则表现不佳。
可以看到,这三个表现最好的 MM-LLM 在评估过程中给出了一致的答案,而其他模型因为选择不一致而常常失败。
V-IRL 视觉语言导航
- 动机
Intentional Explorer 和 Tourist 智能体想完成复杂的任务,就必须要同时利用视觉和语言模型。
因此,研究人员通过引入结合了真实街景的新任务,创建出了V-IRL 视觉语言导航(VLN)基准测试。
- 设置
研究人员微调了 Tourist 智能体的实现方式,将其识别组件替换为了不同的基准测试模型,负责在导航过程中识别视觉地标。接着,GPT-4 会根据识别的结果预测下一步动作。其中,导航指令由 Local 智能体生成。
这里,研究人员共评估了四种方法在导航时识别地标的能力:
(1)通过搜索附近地标的近似方法;
(2)零样本识别器 CLIP 和 EVA-02-CLIP;
(3)多模态大语言模型 LLaVA-1.5;
(4)使用 OCR 模型识别街景中的文本,然后通过 GPT 解析答案。
- 结果
如下表所示,当使用 oracle 地标信息时,强大的 LLM 能够精准地理解导航指令并做出正确的决策,表现令人印象深刻。
但是,当依赖视觉模型从街景获取地标信息时,成功率大幅下降,这说明视觉模型的感知存在误导,影响了 LLM 的决策。
在这些识别器中,CLIP 和 EVA-02-CLIP 的大规模版本表现更为出色,凸显了模型 scaling 的优势。
LLaVA-1.5 作为视觉编码器使用 CLIP(L/14@336px)时表现不佳,可能是因为在指令微调过程中存在对齐问题。
另外,PP-OCR(+ GPT-3.5)的成功率为 28%,体现出 OCR 对于视觉地标识别至关重要。
地理多样性及挑战
V-IRL 基准测试涵盖了全球 12 个不同的城市,进而提供了一个独特的视角,来观察视觉模型在不同地区可能存在的偏差。
正如下方图表所展示的,视觉模型在尼日利亚拉各斯、日本东京、中国香港和阿根廷布宜诺斯艾利斯的表现都不尽如人意。
其中,东京、香港和布宜诺斯艾利斯等城市普遍使用了非英语文字。而拉各斯的街景更是与发达城市相比大相径庭,直接难倒了几乎所有的视觉模型。
这一现象揭示了一个重要的问题:目前的视觉模型在处理包含多种语言的图像数据时面临挑战。
结论
开源平台V-IRL 的设计初衷是为了缩小数字世界与真实世界之间的感知差异,让 AI Agent 能够在一个既虚拟又真实的环境中与现实世界进行交互。
借助V-IRL,智能体可以基于真实的地理信息和街景图片,培养出丰富的感知能力和对环境的理解。
研究人员通过构建不同的示例智能体和开展性能评估,展示了这个平台在全球视觉数据处理方面语言和视觉模型的广泛应用潜力,为提高 AI 在理解环境、做出决策和处理现实世界信息方面的能力开启了新的可能。
随着空间计算技术和机器人系统的日益普及,AI Agent 的需求和应用场景将不断扩大。
从个人助手到城市规划,再到为视力受限者打造的生活辅助工具,我们期待着一个能够深刻理解周围世界的智能体时代的到来。
作者介绍
Jihan Yang
论文一作 Jihan Yang 目前在香港大学电子与电气工程学院攻读博士学位,导师是 Xiaojuan Qi 博士。
在此之前,他在中山大学获得了学士学位,导师是 Liang Lin 教授和 Guanbin Li 教授。
此外,他还与 Ruijia Xu、Shaoshuai Shi 博士、unyu Ding 和 Zhe Wang 博士有着密切的合作。
参考资料: