Bendi新闻
>
清华、华为等提出iVideoGPT:专攻交互式世界模型

清华、华为等提出iVideoGPT:专攻交互式世界模型

1月前
机器之心报道
机器之心编辑部
iVideoGPT,满足世界模型高交互性需求。
近年来,生成模型取得了显著进展,其中视频生成正在成为一个新的前沿领域。这些生成视频模型的一个重要应用是,在多样化的互联网规模数据上以无监督方式学习,用于构建预测世界模型。这些世界模型有望积累关于世界如何运作的常识性知识,从而能够基于智能体的行为预测潜在的未来结果。 

通过利用这些世界模型,采用基于强化学习的智能体可以在世界模型中进行想象、推理和规划,从而在现实世界中通过少量试验就能更安全、更有效地获得新技能。

尽管生成模型和世界模型有着基本的联系,但用于视频生成的生成模型和用于智能体学习的世界模型的发展之间仍然存在显著的差距。主要挑战之一是如何在交互性和可扩展性之间取得最佳平衡。

在基于模型的强化学习领域,世界模型主要使用循环网络架构。这种设计允许在每一步中基于动作传递观察或潜在状态,从而促进交互行为学习。然而,这些模型大多专注于游戏或模拟环境,数据简单,并且对大规模复杂的 in-the-wild 数据进行建模的能力有限。

相比之下,互联网规模的视频生成模型可以合成逼真的长视频,这些视频可以通过文本描述或未来动作序列进行控制。虽然这样的模型允许高层次的、长期的规划,但它们的轨迹级交互性并没有为智能体提供足够的粒度来有效地学习精确的行为作为基本技能。

来自清华大学、华为诺亚方舟实验室、天津大学的研究者提出了 iVideoGPT(Interactive VideoGPT),这是一个可扩展的自回归 Transformer 框架,它将多模态信号(视觉观察、动作和奖励)集成到一系列 token 中,通过预测下一个 Token 使智能体能够进行交互体验。

iVideoGPT 采用新颖的压缩 tokenization 技术,可有效离散高维视觉观察。利用其可扩展架构,研究者能够在数百万人类和机器人操作轨迹上对 iVideoGPT 进行预训练,从而建立一个多功能基础,可用作各种下游任务的交互式世界模型。该研究促进了交互式通用世界模型的发展。


  • 论文地址:https://arxiv.org/pdf/2405.15223
  • 论文标题:iVideoGPT: Interactive VideoGPTs are Scalable World Models

方法

在这一部分,研究团队介绍了一种可扩展的世界模型架构 ——iVideoGPT,其具有极高的灵活性,能够整合多模态信息,包括视觉观察、动作、奖励以及其他潜在的输入。

iVideoGPT 的核心包括一个压缩 tokenizer,用于离散化视频帧,以及一个自回归 transformer,用于预测后续 token。通过在多样化的视频数据上进行预训练,该模型可以获得广泛的世界知识,然后有效地迁移到下游任务中。


架构

压缩 tokenization。Transformer 在处理离散 token 序列方面表现特别出色。VQGAN 是一种常用的视觉 tokenizer,用于将原始像素转换为离散 token。研究者提出用一种由双编码器和解码器 {(E_c, D_c),(E_p, D_p)} 组成的新型条件 VQGAN 对视频进行 token 化。

如图 3a 所示,初始上下文帧包含丰富的上下文信息,通过 N 个 token 独立地进行 token 化和重构:


相比之下,由于上下文帧和未来帧之间存在时间冗余,只有必要的变化信息如移动对象的位置和姿态,才需要被编码。上述过程是通过使用条件编码器和解码器实现的:


研究人员通过在多尺度特征图之间使用交叉注意力来实现条件机制。总的来说,tokenizer 是通过以下目标进行训练的:


该研究提出的 tokenization 主要有两个好处:

  • 首先,它显著减少了 token 化后视频的序列长度,该长度随帧数的增加而线性增长,但增长率 n 要小得多;
  • 其次,通过条件编码,预测后续 token 的 transformer 可以更容易地保持上下文的时间一致性,并专注于建模必要的动态信息。

Transformer 的可交互预测。Token 化后,视频被展平成一系列 token:


长度为特殊的 slot token [S] 被插入以划定帧边界,并促进额外低维模态(如动作)的融合。如图 3b 所示,一个类似 GPT 的自回归 transformer 被用于通过逐帧生成 next-token 来进行交互式视频预测。在这项工作中,该团队使用了 GPT-2 的模型大小,但采用了 LLaMA 架构,以便利用 LLM 架构的最新创新,如旋转位置嵌入。

预训练 

大语言模型可以通过 next-word 预测以自监督的方式从互联网文本中获得广泛的知识。同样,世界模型的无动作(action-free)视频预训练范式将视频预测作为预训练目标,为 LLM 缺乏的物理世界知识提供互联网规模的监督。

研究人员在这一通用目标上预训练 iVideoGPT,应用交叉熵损失来预测后续视频 token:


预训练数据。虽然互联网上有大量视频可用,但由于计算限制,研究人员特别为机器人操作领域预训练了 iVideoGPT。他们利用来自 Open X-Embodiment(OXE)数据集和 Something-Something v2(SSv2)数据集的 35 个数据集的混合,共计 150 万条轨迹。 

微调

动作条件与奖励预测。该团队的架构被设计为灵活地整合额外模态以学习交互式世界模型,如图 3b 所示。动作通过线性投影并添加到 slot token 嵌入中进行整合。对于奖励预测,他们没有学习独立的奖励预测器,而是在每个观察的最后一个 token 的隐藏状态上添加了一个线性头(linear head)。

这种多任务学习方法可以增强模型对任务相关信息的关注,从而提高控制任务的预测准确性。他们在方程式(3)的交叉熵损失之外,还使用了均方误差损失进行奖励预测。

Tokenizer 适应。研究团队选择更新完整模型,包括 tokenizer,以适应下游任务,并发现这一策略比参数高效的微调方法更有效。

很少有文献探讨将 VQGAN tokenizer 用于特定领域的数据。在这项工作中,由于 tokenization 将动态信息与上下文条件解耦,并假设虽然此模型可能在下游任务中遇到未见过的对象,如不同类型的机器人,但 transformer 从多样化场景中学到的基本物理知识 —— 如运动和交互是共享的。

这一假设得到了实验的支持,他们将 iVideoGPT 从混合预训练数据迁移到未见过的 BAIR 数据集,其中预训练的 transformer 可以零样本泛化预测自然运动,仅需对未见过的机器人抓手的 tokenizer 进行微调(见图 7)。这一特性对于将类似 GPT 的 transformer 扩展到大型尺寸尤为重要,能够在保持 transformer 完整的同时实现跨领域的轻量级对齐。


实验

如表 1 所示,与 SOTA 方法相比,iVideoGPT 展现出了具有竞争力的性能,同时在其架构中实现了交互性和可扩展性。虽然初步实验是在 64×64 的低分辨率下进行的,但 iVideoGPT 可以轻松扩展到 RoboNet 的 256×256。


有关定性结果,请参阅图 9。


图 4 显示了 iVideoGPT 与基准模型相比的成功率。iVideoGPT 在两个 RoboDesk 任务中大幅优于所有基线,并实现了与最强模型 SVG' 相当的平均性能。


图 6 显示基于模型的算法不仅比无模型算法提高了样本效率,而且达到或超过了 DreamerV3 的性能。


接下来该研究分析了大规模预训练 iVideoGPT 在未见过的 BAIR 数据集上的零样本视频预测能力。有趣的是,研究者在图 7 的第二行观察到,iVideoGPT 在没有微调的情况下,预测了一个机器人抓手的自然运动 —— 尽管与预训练数据集不同。这表明,尽管由于预训练数据的多样性不足,模型在完全未见过的机器人上的零样本泛化能力有限,但它有效地将场景上下文与运动动态分离开来。相比之下,使用经过适应的 tokenizer,未经过微调的 Transformer 成功地迁移了预训练知识,并在第三行预测了新型机器人的运动,提供了与第四行中完全微调的 Transformer 相似的感知质量,定量结果见图 8a。 


了解更多结果,请参考原论文。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

来源:机器之心

相关新闻

CVPR 2024 | 和马赛克说拜拜!华为、清华等提出基于认知的万物超分大模型NUS、清华提出STAR:一句话生成高质量4D Avatar,代码已开源刷短视频上头?它正在“吃掉”你的大脑!清华、浙大等多研究:短视频不仅影响心理健康,还改变大脑功能视觉全新主干!中科院&华为提出VMamba:视觉状态空间模型OCR小模型仍有机会!华科等提出VIMTS:零样本视频端到端识别新SOTA2024谷歌研究学者计划名单公布:清华、北大、上交ACM班等校友在列吵翻天!全网群嘲澳洲大学“充多了”!2025QS世界大学排名公开!墨大、悉大力压清华,世界TOP20?网友:表情包来了...视觉Mamba模型的Swin时刻,中国科学院、华为等推出VMamba清华、小米、华为、 vivo、理想等多机构联合综述,首提个人LLM智能体、划分5级智能水平清华、智谱AI团队:Loss才是涌现的关键,而非模型参数重塑3D生成核心理论:VAST、港大、清华用「零」训练数据生成了3D模型万字综述大模型高效推理:无问芯穹与清华、上交最新联合研究全面解析大模型推理优化丰田、本田、马自达等车企造假,斯坦福团队抄袭清华系大模型,巴菲特公司股票跌98%,周星驰首部短剧上线,这就是今天的其他大新闻!专治大模型说胡话,精确率100%!华科等提出首个「故障token」检测/分类方法AAAI 2024 | 清华提出DRM:无偏差的新类发现与定位新方法今日arXiv最热大模型论文:清华把大模型用于城市规划,回龙观和大红门地区成研究对象华人工程师夫妇在美身亡:均为清华本科,生前就职于谷歌744高分考上清华:母亲瘫痪、父亲精神病,没想到他如今过成这样…三篇论文解决「语义分割的优化和评估」难题!鲁汶/清华/牛津等联合提出全新方法CVPR 2024 | 加快199倍!清华和哈佛提出LangSplat:3D语义高斯泼溅乔布斯看了得哭!与小米、华为的AI 大模型应用打擂台,苹果盖不住的“安卓味儿”都上了热搜5年跟踪北京上海名校62个牛娃,现状令人唏嘘:清华学霸失业、复旦女孩碰壁、活得最好的……|精选河南大学90年大礼堂被烧毁,修缮公司曾中标故宫、清华、北大项目,校方:火灾时礼堂内无施工人员3D版Sora来了?UMass、MIT等提出3D世界模型,具身智能机器人实现新里程碑
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。