Bendi新闻
>
Agent触摸汉堡辨冷热,首次拥有类人感官!UCLA等发布3D多模态交互具身智能大模型

Agent触摸汉堡辨冷热,首次拥有类人感官!UCLA等发布3D多模态交互具身智能大模型

10月前



  新智元报道  

编辑:桃子 好困
【新智元导读】Sam Altman认为AGI很快就会降临,但若是没有感官兼备的AI何以称为智能?最近,UCLA等机构研究人员提出多模态具身智能大模型MultiPLY,AI可以知冷知热、辨音识物。

具身智能,是大模型未来应用的一个重要方向。
现在,大模型加持下的智能体,能够参与3D环境,不仅有了听觉视觉,还有了触觉等多种感官能力。
卧室里有什么物体,一眼辨认。
听到门铃响了,LLM便会告诉你家里来客人了。
大模型加持的NPC,在触摸桌子的香蕉后,发现没熟并建议不要吃。

甚至,它还能感受到物体的温度,餐桌上的汉堡已经凉了,会告诉你加热后再吃。
除此之外,这些智能体借助LLM之力,还擅长使用工具、物体检索、导航、任务分解等多种任务。
来自UMass Amherst、UCLA和MIT-IBM Watson AI Lab研究人员,推出了全新的具身智能大模型MultiPLY。
通过智能体与3D环境交互,MultiPLY呈现了大模型多感官能力,无缝地连接了语言、动作和感知!

论文地址:https://arxiv.org/abs/2401.08577
在推理过程中,MultiPLY能够生成动作token,指示智能体在环境中采取行动,并获得下一个多感官观测值。
然后,通过状态token将观测结果反馈给LLM,以生成后续的文本或动作token。
在对象检索、工具使用、多感官标注和任务分解的具体任务实验中,MultiPLY的性能刷新SOTA。

多感官大模型

多模态大模型,如LLaVA、Flamingo、BLIP-2、PaLM-E,在视觉语言任务中表现出色。然而,它们主要关注2D场景理解,很难对3D环境进行推理和交互。
尽管目前也有关于3D场景理解的大模型研究,但这些LLM缺乏捕捉视觉和语言之外的多感官信息的能力。相比之下,人类通过触摸甜甜圈,能够感知其柔软度和温度,而这种能力远远超出了当前多模态LLM的范围。
若想真正实现AI大佬口中的AGI,那么未来构建多感官的大模型也是必不可少。
但挑战在于,当前缺少训练LLM的多感官交互数据,另外还缺乏对3D场景和物体的多感官信息的正确表示。
通过将场景抽象为以「对象为中心」的表示,并在与对象进一步交互时关注对象细节,人类很轻易就能做到。
对于LLM来说,必须在以对象为中心的表示,以及详细多感官信息之间灵活切换。
为此,研究人员提出了MultiPLY,一种多感官呈现的LLM,可以通过部署由LLM驱动的智能体与3D环境进行交互,从而对以对象为中心的多感官表示进行编码,包括视觉、音频、触觉和温度信息。

Multisensory-Universe数据集


为了训练这种全新的模型,研究人员提出了一个大规模多感官数据集Multisensory-Universe,包含50万条由AI智能体在3D虚拟环境中交互时收集的数据。
这些数据涵盖了多种任务类型,包括多感官描述(multisensory captioning)、问答(question answering)、对话(dialogue)、操作(manipulation)、任务分解(task decomposition)等等。

向3D场景中添加互动对象

具体来说,团队基于Habitat-Matterport 3D(HM3D)语义数据集对场景进行了构建。
HM3D数据集包含了216个三维空间及其内部的3,100个房间,但由于传感器数据不足和种类单一的问题,这些对象无法在Habitatsim环境中进行互动。
为此,研究人员在场景中引入了新的对象,这样智能体就可以利用Habitatsim与它们进行交互了。

主要来源有:

  1. ObjectFolder,包含了1000个对象模型,这些对象的撞击声效被储存在隐式神经场中,并且还标注了对象的材质;
  2. Objaverse,是一个涵盖了丰富类别的800,000个三维对象的集合。

具体来说,研究人员让ChatGPT从ObjectFolder和Objaverse中选择1到10个新对象,并为这些新加入的对象生成合适的边界框。
期间,ChatGPT需要确定对象的材质类别(比如,陶瓷、塑料、钢铁)和特性(比如,可变形性、弹性、硬度),以及温度标签(比如,物体是热的、冷的,还是和室温一样)。
除了HM3D中现有的对象及其边界框外,研究人员给ChatGPT的提示还包括一些偏好,和少样本示例:
  1. 挑选一些外观相似的对象。比如,选两个外形相似的瓶子,其中一个是塑料的,另一个是金属的。这样,就需要通过不同的传感器收集信息来消除歧义。
  2. 挑选那些与环境匹配、并可以组合使用完成任务的对象。例如,在厨房环境中,可以选择食材和烹饪工具。

多感官全景(Multisensory-Universe)生成管线

获取新物体的传感器数据

- 触觉
对于触觉数据的收集,研究人员采用了DiffTactile技术,它基于MLSMPM方法来模拟刚体、弹性和弹塑性的物体。
把物体的三维模型放入DiffTactile系统中,然后用一个装有定位标记的抓手在事先设定好的位置触碰这些物体。触觉传感器记录下标记点的起始和结束位置,从而反映气泡被压缩的程度。
- 环境声音
为了帮助导航或推理,每个物体都可以发出环境声音,或者作为线索,让AI智能体了解周围环境中正在发生的事情。
引导ChatGPT根据AudioSet中的声音样本与新添加物体的语义标签进行匹配。根据AudioSet提供的声音描述,ChatGPT需要从候选物体列表中挑选出那些可能发出这种声音的物体。
- 撞击声音
撞击声音是指敲击或撞击物体时所听到的声音,这对于识别物体的材料类型非常关键。
通过在ObjectFolder中查询物体的隐式声音场,再给定敲击位置和施加的力,就可以获撞击声音了。
- 温度
针对每个物体的温度标签,需要让ChatGPT给出它们各自合适的温度。

智能体采集场景构建数据

研究人员通过大语言模型驱动的智能体,来收集场景构建中的所需数据。
首先,给ChatGPT设置任务,并让它给出任务建议。接着,将一个能够在3D环境中与物体进行互动的智能体放入其中,执行任务并收集交互数据。
- 生成任务建议
在给出需要执行的动作清单后,ChatGPT便会生成特定的任务,并产生一系列代表动作的词语,以及基于物体实际反馈标签推导出的语言推理结果。由于ChatGPT能够访问所有的材料和温度标签,因此它能在「触摸」动作之后生成类似「感觉很冷」的句子。
- 互动数据的收集
智能体首先会随机地探索环境,并收集初始的RGBD环境数据。在确定了动作之后,智能体就会去与环境中的物体进行互动,并获取感官反馈。例如,当动作是「触摸物体」时,智能体会反馈该物体的触觉和温度信息。

MultiPLY架构

接下来,便是进入MultiPLY大模型训练阶段了。

以对象为中心的场景表征

LLM首先将智能体探索的3D环境特征作为输入,以便对场景有初步理解。
研究人员按照3D-LLM研究路线,利用2D特征来构建3D场景特征。这样视觉特征就可以无缝地输入到预训练的视觉语言模型中,且无需适应。
然而,3D-LLM的点云编码让LLM很难一次处理数千个点。
当人类探索3D环境时,会将场景抽象表示,并粗略地形成对象及其位置的理解,无需记住所有细节。
同样,研究团队使用以对象为中心的抽象表示来表示3D场景。
通过概念图和CLIP编码器来编码图像中的物体,然后通过多视角关联,将2D图像编码融合到3D空间中。
研究人员还将位置嵌入添加到物体的视觉特征中,最终得到个特征作为抽象的以对象为中心的场景表示,其中是对象的数量。
如果3D环境中的物体带有环境声音,研究人员会使用CLAP音频编码器对声音进行编码,并得到1024维的特征。
以对象为中心的场景表示和环境声音表示作为LLM的初始输入,由 <SCENE>、</SCENE> 和 <AMBIENT SOUND>、</AMBIENT SOUND> 等token括起来。

动作token

研究人员设计了一组动作token来表示智能体与环境的交互:
<SELECT> token选择要与之交互的对象。通过语言特征(即<SELECT> token的LLM的最后隐藏状态)和环境中对象的CLIP视觉特征之间的注意力来选择对象。它会选择有最大注意力分数的对象。
<NAVIGATE> token要求智能体导航到选定的对象。
<OBSERVE> token要求智能体仔细检查所选对象并获取对象详细信息(以对象详细点云的形式)。
<TOUCH> token允许智能体触摸所选的物体,获取触觉和温度信息。
<HIT> token允许智能体击中所选物体,得到撞击声音。
<PICK-UP>和<PUT-DOWN> token让智能体能够拾取或放下选定的对象。
<LOOK-AROUND> token让智能体转头并获取附近的物体。

状态token

研究人员还设计了另一种token,将交互结果反馈给LLM:
<OBJECT>:当AI智能体<OBSERVE>到一个物体时,它会记录物体的点信息。得到从2D CLIP特征聚合而来的3D特征后,再加入位置信息来进行增强。随后创建了一个由N个点组成的点云,每个点都有1024维的特征数据,其中N是点的总数。
<IMPACT SOUND>:当AI智能体<HIT>一个物体时,它会记录产生的撞击声。利用CLAP音频编码器处理这些声音,即可得到一个1024维的撞击声音数据。然后使用一个声音映射器(即一个处理层)将声音数据转换成LLM可以处理的格式。
<TACTILE>:当一个物体被AI智能体<TOUCH>时,它会记录下触觉信息。先将触觉感应转化为热图,并使用CLIP来处理。通过对这些热图区块进行平均值处理,就得到了一个1024维的温度特征数据。然后使用一个触觉映射器(即一个处理层)来将这些数据转换成大语言模型的特征格式。
<TEMPERATURE> :在记录温度时,会先将温度数据转化为热图,并使用CLIP来处理。通过对热图区块进行平均值处理,就获得了一个1024维的温度特征数据。然后再使用一个温度映射器(即一个处理层)来将这些数据转换成大语言模型的特征格式。

训练与推理

模型架构
在此,研究人员使用了LLaVA作为多模态大模型骨干。
由于研究中的视觉特征已使用ConceptGraphs与LLaVA对齐到相同的嵌入空间,因此可以直接使用LLaVA的视觉到语言projector,而无需对视觉语言数据进行预训练。
对于其他传感器模式,研究人员利用轻量级适配器,它是单线层projector,将传感器特征映射到LLaVA的文本token嵌入空间中。
模态对齐
如上所述,触觉、声音和温度表示与语言特征不一致。
在第一阶段,研究人员训练传感器到语言适配器以进行多感官特征对齐。对于音频语言对齐,使用了AudioSet和AudioCaps。
对于撞击声、触觉和热数据,研究团队使用ChatGPT生成一个句子标题,描述材料以及每种传感器模态和语言之间的一致性。然后冻结图像编码器和LLM的权重,以加快收敛速度并保持语言推理能力。
使用Multisensory-Universe数据集进行指令微调
在第二阶段,研究人员使用Multisensory-Universe数据集对LLaVA进行调优。
其中训练损失由两部分组成,第一个是LLM损失,与原始LLaVA模型相同。然后又添加了一项损失,迫使模型选择正确的对象来关注。
具体来说,研究人员计算SELECT token的LLM最后一个隐藏状态,与每个抽象对象特征之间的注意力。
该特征通过Sigmoid层,并通过二元交叉熵(BCE)损失进行优化。在这一阶段的训练中,解冻整个模型。
研究人员在128个V100 GPU上使用FSDP进行了高效训练。
推理
在推理时,MultiPLY首先将任务提示和抽象场景表示作为输入,并生成后续token。一旦生成了动作token,就会指示智能体采取Habitat-sim中的动作并与环境交互。
智能体的观察结果通过状态token作为输入反馈给LLM。LLM进一步根据当前状态输入生成下一个token。

实验结果

微调模型在多感官数据集上进行训练之后,研究人员在模拟环境中对其进行了测试。
在这些测试中,AI智能体能够根据MultiPLY生成的动作Token与模拟环境进行互动。
接着,LLM将等待智能体完成动作,并通过状态Token接收智能体的观察结果,以此来生成下一个Token。
具体来说,研究人员设计了4种实验场景:对象检索、工具使用、多感官标注和任务分解,并为每个场景提供了详细的任务说明、基准测试和分析。

对象检索

在对象检索的实验中,研究人员得出了几个有趣的结论。
首先,能够处理多种感官信息的模型,远远优于只能处理单一信息类型的模型。
CLIP和CLAP,以及那些依赖初始视觉特征的模型,在物品检索任务中的表现很差。这更加凸显了结合多种感官信息的模型,相较于仅依赖2D图像模型的重要性。
这主要是因为,单一视角的图片有时候无法提供充分的信息来识别物体,尤其是当视角不一致或者物体被遮挡时。
其次,LLM在性能上超越了基于相似度检索的模型。这可能是因为后者将多感官的信息简单地融合在一起,而没有区分各种感官信息。
总体而言,MultiPLY在很多方面都显著优于基准模型。
可能是因为其它模型将所有信息都与视觉信息绑定,而忽视了一个视觉特征可能与来自其他感官的多个特征相关联的事实。
而MultiPLY通过单独与不同感官数据进行交互和推理,可以将不同感官特征相互联系。

工具使用

在工具使用测试中,那些基于绑定(binding-based)的方法在工具使用这一任务上表现极差。
原因可能在于这些方法将物体的多种感官信息,作为不可分割的整体进行处理,导致它们无法从整体中区分出单独的感官特征,比如物质材料。
因此,就 更别提去推断这些特性是如何成为工具使用的依据,以及如何在多种感官信息融合后分析和理解物体的实际功能了。

多感官标注

从下表可以明显看出,整体而言,基于3D的大模型的性能,超越了基于2D VLM。
LLaVA和3D-LLM采用了全面的数据表示作为输入,这导致它们无法与那些可以灵活切换不同数据表示、进行互动的模型相匹敌。
MultiPLY的表现比Pointbind-LLM更加出色,这很可能是因为PointBind把不同感官模态的数据表示绑定在一起,这样做难以区分和解析各个感官信息。

任务分解

在任务分解上,那些缺乏交互功能的模型表现极差,这很可能是由于VLM极易出现错误的幻觉。
例如,即使场景中并无面包,模型也可能错误地生成「找到一块面包」的指令。
MultiPLY在性能上大幅领先于基线模型,是因为MultiPLY综合考虑了多种感官信息,而其他模型仅仅依赖视觉信息。
另一个原因可能在于,基线模型仅以整个场景作为输入,无法精确地关注到场景中的具体细节。

定性实验

下图直观展现了MultiPLY在具体环境中与物体互动并获取多种感官信息的强大能力。

作者介绍

Yining Hong是加州大学洛杉矶分校计算机科学专业的博士生,导师是MIT-IBM Watson AI Lab的淦创教授,以及UCLA的Song-Chun Zhu教授和Ying Nian Wu教授。
在此之前,她在上海交通大学获得了学士学位。
她的研究致力于开发能够主动探索并与三维物理世界进行互动,同时还能在这样的环境中进行常识性推理的通用具身智能体。

其所需关键要素包括:

- 构建三维世界的模型;

- 发展大规模具身基础模型;

- 实现视觉常识推理。
参考资料:
https://vis-www.cs.umass.edu/multiply/



微信扫码关注该文公众号作者

来源:新智元

相关新闻

今日arXiv最热NLP大模型论文:像人一样浏览网页执行任务,腾讯AI lab发布多模态端到端Agent哈工深聂礼强:多模态大模型是具身智能发展的关键动力丨具身智能十人谈GPT-4V只能排第二!华科大等发布多模态大模型新基准:五大任务14个模型全面测评GPT-4o仅排第二!北大港大等6所高校联手,发布权威多模态大模型榜单!超越 GPT-4V 和 Gemini Pro!HyperGAI 发布最新多模态大模型 HPT,已开源3D版Sora来了?UMass、MIT等提出3D世界模型,具身智能机器人实现新里程碑AI早知道|AI首次拥有类人感官;Adobe发布视频模型;三星Galaxy AI两年内将开启付费斯坦福20亿参数端测多模态AI Agent模型大升级,手机汽车机器人都能用轻松拿捏4K高清图像理解!这个多模态大模型自动分析网页海报内容,打工人简直不要太方便李未可科技古鉴:发布自研多模态大模型WAKE-AI,三大优化让AI眼镜交互体验升级 丨GenAICon 2024多领域文献阅读超越GPT-4!深势科技发布科学文献多模态大模型Uni-SMART技术报告AI早知道|Apple 发布 MM1多模态大语言模型;xAI 是市场上薪酬最高的人工智能公司赋予机器人思考能力!北大提出自纠正多模态大模型,赋能端到端机器人操作面壁智能发布最强端侧多模态模型:超越Gemini Pro 、GPT-4V,图像编码快150倍!鲶鱼效应显著!Sora 发布满月,多模态领域成果丰硕 | 大模型一周大事阿里林俊旸:大模型对很多人来说不够用,打造多模态Agent是关键 | 中国AIGC产业峰会中国移动千亿多模态大模型发布,「九天-九九」风趣畅聊堪比GPT-4o未央播报 | 央行进一步推动优化支付服务工作 OpenAI发布多模态大模型GPT-4o​第一个基于Llama 3的多模态大模型!Bunny-Llama-3-8B-V上线!只要千元级,人人可用百亿级多模态大模型!国产「AI模盒」秒级训练推理AI早知道|ChatGPT模型大更新;阿里云发布多模态大模型;百度推多模态模型UNIMO-G浙江大学发布全能多模态大模型OmniBind,刷榜13大benchmark零成本突破多模态大模型瓶颈!多所美国顶尖高校华人团队,联合推出自增强技术CSR多模态大模型,爆了!网友:YYDS!
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。