Bendi新闻
>
世界顶尖多模态大模型开源!又是零一万物,又是李开复

世界顶尖多模态大模型开源!又是零一万物,又是李开复

9月前
允中 发自 凹非寺
量子位 | 公众号 QbitAI

领跑中英文两大权威榜单,李开复零一万物交出多模态大模型答卷!

距离其首款开源大模型Yi-34B和Yi-6B的发布,仅间隔不到三个月的时间。

模型名为Yi Vision Language(Yi-VL),现已正式面向全球开源。

同属Yi系列,同样具有两个版本:

Yi-VL-34B和Yi-VL-6B

先来看两个例子,感受一波Yi-VL在图文对话等多元场景中的表现:

Yi-VL对整幅图做了详细分析,不仅说明了指示牌上的内容,甚至连“天花板”都有照顾到。

中文方面,Yi-VL也能清晰有条理地准确表达:

此外,官方也给出了测试结果。

Yi-VL-34B在英文数据集MMMU上准确率41.6%,仅次于准确率55.7%的GPT-4V,超越一系列多模态大模型。

而在中文数据集CMMMU上,Yi-VL-34B准确率36.5%,领先于当前最前沿的开源多模态模型。

Yi-VL长啥样?

Yi-VL基于Yi语言模型研发,可以看到基于Yi语言模型的强大文本理解能力,只需对图片进行对齐,就可以得到不错的多模态视觉语言模型——这也是Yi-VL模型的核心亮点之一。

架构设计上,Yi-VL模型基于开源LLaVA架构,包含三个主要模块:

  • Vision Transformer(简称ViT)用于图像编码,使用开源的OpenClip ViT-H/14模型初始化可训练参数,通过学习从大规模”图像-文本”对中提取特征,使模型具备处理和理解图像的能力。

  • Projection模块为模型带来了图像特征与文本特征空间对齐的能力。该模块由一个包含层归一化(layer normalizations)的多层感知机(Multilayer Perceptron,简称MLP)构成。这一设计使得模型可以更有效地融合和处理视觉和文本信息,提高了多模态理解和生成的准确度。

  • Yi-34B-Chat和Yi-6B-Chat大语言模型的引入为 Yi-VL 提供了强大的语言理解和生成能力。该部分模型借助先进的自然语言处理技术,能够帮助Yi-VL深入理解复杂的语言结构,并生成连贯、相关的文本输出。

图说:Yi-VL模型架构设计和训练方法流程一览

训练方法上,Yi-VL模型的训练过程分为三个阶段,旨在全面提升模型的视觉和语言处理能力。

第一阶段,使用1亿张的“图像-文本”配对数据集训练ViT和Projection模块。

在这一阶段,图像分辨率被设定为224x224,以增强ViT在特定架构中的知识获取能力,同时实现与大型语言模型的高效对齐。

第二阶段,将ViT的图像分辨率提升至448x448,让模型更加擅长识别复杂的视觉细节。此阶段使用了约2500万“图像-文本”对。

第三阶段,开放整个模型的参数进行训练,目标是提高模型在多模态聊天互动中的表现。训练数据涵盖了多样化的数据源,共约100万“图像-文本”对,确保了数据的广泛性和平衡性。

零一万物技术团队同时也验证了可以基于Yi语言模型强大的语言理解和生成能力,用其他多模态训练方法比如BLIP、Flamingo、EVA等快速训练出能够进行高效图像理解和流畅图文对话的多模态图文模型。

Yi系列模型可以作为多模态模型的基座语言模型,给开源社区提供一个新的选项。同时,零一万物多模态团队正在探索从头开始进行多模态预训练,更快接近、超过GPT-4V,达到世界第一梯队水平。

目前,Yi-VL模型已在Hugging Face、ModelScope等平台上向公众开放,用户可亲身体验这款模型在图文对话等多元场景中的表现。

超越一系列多模态大模型

在全新多模态基准测试MMMU中,Yi-VL-34B、Yi-VL-6B两个版本均有不俗表现。

MMMU(全名Massive Multi-discipline Multi-modal Understanding & Reasoning 大规模多学科多模态理解和推理)数据集包含了11500个来自六大核心学科(艺术与设计、商业、科学、健康与医学、人文与社会科学以及技术与工程)的问题,涉及高度异构图像类型和交织文本图像信息,对模型的高级知觉和推理能力提出了极高要求。

而Yi-VL-34B在该测试集上以41.6%的准确率,成功超越了一系列多模态大模型,仅次于GPT-4V(55.7%),展现出强大的跨学科知识理解和应用能力。

同样,在针对中文场景打造的CMMMU数据集上,Yi-VL模型展现了“更懂中国人”的独特优势。

CMMMU包含了约12000道源自大学考试、测验和教科书的中文多模态问题。

其中,GPT-4V在该测试集上的准确率为43.7%, Yi-VL-34B以36.5%的准确率紧随其后,领先于当前最前沿的开源多模态模型。

项目地址:
[1]https://huggingface.co/01-ai

[2]https://www.modelscope.cn/organization/01ai

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

来源:量子位

相关新闻

李开复大模型公司零一万物完成数亿美元融资;Figure 02人形机器人发布丨AIGC日报零一万物发布千亿参数模型 Yi-Large,李开复:中国大模型赶上美国,立志比肩 GPT-5零一万物发布千亿参数模型、海外产品收入将超1亿,李开复:我10年不套现国产大模型评测超GPT-4!李开复:十年内不会套现精确指出特定事件发生时间!字节&复旦大学多模态大模型解读视频太香了英伟达一季净利暴增 6 倍,AI 芯片年更;王小川、李开复拒绝跟进大模型降价;ChatGPT 可引用多家报纸内容 | 极客早知道首个开源世界模型!百万级上下文,长视频理解吊打GPT-4,UC伯克利华人一作对话李开复:这次大模型创业,我十年都不会变现承诺10年不套现, 62岁的李开复要陪AI大模型“长跑”离世界模型更近一步!Meta开源OpenEQA,评估AI Agent情景理解能力李开复提出「PMF 不再适用大模型 AI-First 创业,要追求 TC-PMF」,如何理解?扩散模型更懂复杂提示词!Pika北大斯坦福开源新框架,利用LLM提升理解力独家对话李开复:中国AI助手赛道DAU仅千万量级,大模型市场教育很迫切数十万字秒读,2分钟出PPT!李开复推荐的「万知」AI助手,小程序免费用到世界工厂去!一场大模型的产业变革正在发生最懂打工人的AI特助万知来了,李开复在线催更!2分钟手机直出PPT效率×10比阿里EMO抢先开源!蔡徐坤“复出”唱RAP,腾讯AniPortrait让照片变视频,鬼畜区UP狂喜!看看哪家效果好巨头杀疯了!阿里:降价97%!百度“王炸”:免费!创业公司怎么办?李开复表态AI早知道|OpenAI进入胡润世界500强;阿里巴巴多模态模型升级更新世界著名中餐馆即将在多伦多开店!复刻Sora的通用视频生成能力,开源多智能体框架Mora来了20多个小时→9个多小时!智能复兴号开进青藏高原击败OpenAI,权重、数据、代码全开源,能完美复现的嵌入模型Nomic Embed来了华为盘古大模型5.0技术解密:更多模态,复杂推理
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。