Bendi新闻
>
最强开源多模态生成模型MM-Interleaved:首创特征同步器

最强开源多模态生成模型MM-Interleaved:首创特征同步器

9月前

机器之心专栏

机器之心编辑部

过去几个月中,随着 GPT-4V、DALL-E 3、Gemini 等重磅工作的相继推出,「AGI 的下一步」—— 多模态生成大模型迅速成为全球学者瞩目的焦点。

想象一下,AI 不仅会聊天,还长了「眼睛」,能看懂图片,甚至还会通过画画来表达自己!这意味着,你可以和它们谈天说地,分享图片或视频,它们也同样能用图文并茂的方式回应你。


最近,上海人工智能实验室联合香港中文大学多媒体实验室(MMLab)、清华大学、商汤科技、多伦多大学等多家高校、机构,共同发布了一个多才多艺的最强开源多模态生成模型 MM-Interleaved,借助全新提出的多模态特征同步器刷新多项任务 SOTA。它拥有对高分辨率图像细节和微妙语义的精准理解能力,支持任意穿插的图文输入和输出,带来了多模态生成大模型的崭新突破。


 

论文地址:https://arxiv.org/pdf/2401.10208.pdf

项目地址:https://github.com/OpenGVLab/MM-Interleaved

模型地址:https://huggingface.co/OpenGVLab/MM-Interleaved/tree/main/mm_interleaved_pretrain


MM-Interleaved 可以轻松编写引人入胜的旅游日志和童话故事,准确理解机器人操作,就连分析电脑和手机的 GUI 界面、创作独特风格的精美图片都不在话下。甚至,它还能教你做菜,陪你玩游戏,成为随时听候指挥的个人助理!话不多说,直接看效果:


轻松理解复杂多模态上下文


MM-Interleaved 可以根据图文上下文自主推理生成符合要求的文本答复,它既能算水果数学题:

 


也能结合常识推理出 Logo 图像对应的公司并进行介绍:

 


还能精确识别用红色圆圈标注出的手写文字内容:

 


此外,模型也能直接理解通过序列图像表示的机器人动作:



以及在 Minecraft 中如何建造围栏这样的游戏操作:

 


甚至能结合上下文,手把手地教用户如何在手机 UI 界面上配置灰度:

 

以及精准定位找到那架藏在后面的小飞机:

 


脑洞全开生成不同风格图像


MM-Interleaved 模型同样可以出色地完成各种复杂的图像生成任务。比如根据用户提供的详细描述生成一张三角钢琴的剪影:

 


或者当用户以多种形式指定所需生成的图像应当包含的物体或风格时,MM-Interleaved 框架也可轻松应对。


比如生成一张水彩风格的大象:

 


按照狗的风格生成一张猫的画:

 


在向日葵花丛里的一座木房子:

 


以及在生成海浪图像时,根据上下文智能推断相应的风格。


图像生成兼顾空间一致性


更令人惊喜的是,MM-Interleaved 还具备根据输入的分割图和对应的文本描述生成图像的能力,并确保生成的图像与分割图在空间布局上保持一致。

 


这一功能不仅展示了模型在图文生成任务中的卓越表现,同时也为用户提供了更加灵活和直观的操作体验。


自主生成图文并茂的文章


此外,只需提供一个简单的开头,MM-Interleaved 就能自主进行续写,生成语义连贯、图文并茂的文章,题材多样。


无论是关于一朵玫瑰的童话故事:



教你制作苹果汁的教程指南:

 


还是卡通动漫中的情节片段:

 


MM-Interleaved 框架都展现出了卓越的创造力。这使得 MM-Interleaved 框架成为了一个无限创意的智能合作者,能够帮助用户轻松打造引人入胜的图文作品。


MM-Interleaved 致力于解决图文交错多模态大模型训练中的核心问题,通过深入研究提出了一种全新的端到端预训练框架。


基于 MM-Interleaved 训练的模型,在参数量更少、不使用私有数据的情况下,不仅在多个零样本多模态理解任务上表现优越,领先于国内外最新研究工作,如 Flamingo、Emu2 等。


还能进一步通过监督微调的方式,在视觉问答(VQA),图像描述(image caption)、指代理解(referring expression comprehension)、图生图(segment-to-image generation)、视觉故事生成(visual storytelling)等多个下游任务上取得更为优异的综合性能。


目前模型的预训练权重及相应代码实现均已在 GitHub 开源。

 


多模态特征同步器携手全新端到端训练框架

  


MM-Interleaved 提出了一种全新的端到端训练框架,专门面向图文交错数据。


该框架支持多尺度的图像特征作为输入,不对图像和文本的中间特征添加任何额外约束,而是直接采用预测下一个文本 token 或下一张图像的自监督训练目标,实现单阶段的统一预训练范式。


与以往方法相比,MM-Interleaved 不仅支持交错生成文本和图像,还能高效捕捉图像中更多的细节信息。

 


此外,MM-Interleaved 的关键实现还包括一个通用的多模态特征同步器(Multi-modal Feature Synchronizer)。


该同步器能够动态注入多张高分辨率图像的细粒度特征到多模态大模型和图像解码器中,实现了对文本和图像的解码生成的同时进行跨模态的特征同步。


这一创新设计使得 MM-Interleaved 为多模态大模型领域的发展注入了新的活力。


多项任务性能领先

  


如表 1 和表 3 所示,MM-Interleaved 在零样本多模态理解和生成任务上均取得了卓越的性能。这一成就不仅证明了该框架的强大能力,也突显了其在应对多样化任务时的强大通用性。

 


 

表 2 和表 4 展现了 MM-Interleaved 在进行进一步微调后的实验结果,其在指代理解、基于分割图生成图像、图文交错生成等多个下游任务上的性能也十分优异。


这表明 MM-Interleaved 不仅在预训练阶段表现出色,而且在具体任务微调后依然能够保持领先地位,从而为多模态大模型的广泛应用提供了可靠的支持。


结论


MM-Interleaved 的问世标志着多模态大模型的发展朝着实现全面端到端的统一建模和训练迈出了关键一步。


这一框架的成功不但体现在其预训练阶段所展现的卓越性能,而且还体现在微调后在各个具体下游任务上的全面表现。


其独特的贡献不仅在于展示了强大的多模态处理能力,更为开源社区构建新一代多模态大模型开启了更为广阔的可能性。


MM-Interleaved 也为未来图文交错数据的处理提供了新的思路和工具,为实现更加智能、灵活的图文生成和理解奠定了坚实基础。


我们期待看到这一创新为更多领域相关应用带来更多惊喜




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

来源:机器之心

相关新闻

最强开源多模态生成模型MM-Interleaved:首创特征同步器,刷新多项SOTA面壁智能发布最强端侧多模态模型:超越Gemini Pro 、GPT-4V,图像编码快150倍!手机上能跑的「GPT-4V」来啦!多图、视频理解首次上端!面壁小钢炮开源史上最强端侧多模态卷疯了!最强开源大模型Llama 3发布,最大参数4000亿,小扎内心:大模型比元宇宙香多了扎克伯格最新采访:Meta最强开源模型Llama 3凭什么值百亿美金周鸿祎向李彦宏“开炮”:有些名人胡说八道别被忽悠了;全球最强开源大模型Llama 3发布:最大模型参数将超4000亿丨AI周报全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型扎克伯格最新2万字访谈:价值百亿美金的“最强开源大模型”Llama3及背后的一切“我们坚持开源!”阿里云发布“地表最强”中文大模型:半年一迭代、性能翻倍?今日arXiv最热NLP大模型论文:像人一样浏览网页执行任务,腾讯AI lab发布多模态端到端Agent手机上能跑的 GPT-4V!面壁发布端侧最强多模态小钢炮 2.6,实时视频理解首次上端阿里云突然发布全球最强开源模型 Qwen2,性能超越美国最强开源模型全球最强开源模型Qwen2发布,阿里云为开闭源之争画下休止符扎克伯格的Llama 3号称全球最强开源模型!却写不好这个……全球最强开源模型一夜易主,1320亿参数推理飙升2倍全球最强开源模型一夜易主,1320亿参数推理飙升2倍!编码数学击败GPT4-Turbo!DeepSeek-Coder-v2登顶竞技场最强开源编码模型AI早知道|B 站开源轻量级 AI 语言模型;阿里通义Qwen2成最强开源大模型英伟达开源3400亿巨兽,98%合成数据训出最强开源通用模型!性能对标GPT-4o英伟达开源最强通用模型Nemotron-4 340B阿里云发布最强开源大模型Qwen2,干翻Llama 3,比闭源模型还强适应多形态多任务,最强开源机器人学习系统「八爪鱼」诞生通义千问 2.5 发布,成为中国最强开源大模型最强开源大模型Llama 3来了!4000亿参数狙击GPT-4,训练数据达Llama 2七倍
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。