Bendi新闻
>
更适合中文LMM体质的基准CMMMU来了:超过30个细分学科,12K专家级题目

更适合中文LMM体质的基准CMMMU来了:超过30个细分学科,12K专家级题目

4月前
机器之心专栏
机器之心编辑部


近期,随着多模态大模型(LMM) 的能力不断进步,评估 LMM 性能的需求也日益增长。与此同时,在中文环境下评估 LMM 的高级知识和推理能力的重要性更加突出。


在这一背景下,M-A-P 开源社区、港科大、滑铁卢大学、零一万物等联合推出了面向中文大规模多学科多模态理解和推理基准 CMMMU(Chinese Massive Multi-discipline Multimodal Understanding and Reasoning),用于评估基本模型在中文各种任务中的专家级多模式理解能力。


CMMMU 涵盖 6 个大类学科,包括艺术、商业、健康和医学、科学、人文与社会科学、技术与工程,跨越 30 多个细分领域学科。下图给出了每个细分领域学科的一个题目示例。CMMMU 是第一个在中文背景下的多模态基准,也是现有少数的考察 LMM 复杂理解和推理能力的多模态基准之一。



数据集构建


数据采集


数据采集分为三个阶段,第一阶段由研究者们为每一个科目收集满足版权许可要求的题目来源(网页或者书籍),同时避免题源重复,然后第二阶段,研究者们将题源转发给众包标注者以进行进一步的标注。所有的标注者都是本科生或更高的学位,以确保他们可以验证标注的问题和相关的解释。在标注过程中,研究者要求标注者严格遵循标注原则,比如过滤掉不用图片就能回答的问题、尽可能地过滤掉使用相同图像的问题与不需要专家知识来回答的问题等。最后第三阶段,研究者为了平衡数据集中每一科目题目数量,对问题收集较少的科目专门进行补充。


数据集清洗


为了进一步提高 CMMMU 的数据质量,研究者们遵循严格的数据质量控制协议。首先,每个问题都由至少一位论文作者手工验证。其次,考虑到数据污染问题,他们也过滤掉了在不借助 OCR 的情况下,几个 LLM 也可以回答出的问题。


数据集概览


CMMMU 由 12K 个题目组成,分为少样本开发集、验证集和测试集。少样本开发集包括每个学科 5 个左右的题目,验证集抽样出 900 个题目,测试集包括 11K 题目。题目中的图片包括病理图、乐谱图、电路图、化学结构图等等,共 39 种类型。他们根据逻辑难度而不是智力难度将数据分为简单 (30%)、中等 (58%) 和困难 (12%) 三种难度。更多题目统计信息在表 2 和表 3 中展示。





实验


团队测试了多种主流的中英文双语 LMM 以及几个 LLM 在 CMMMU 上的表现。其中包含了闭源和开源模型。评估过程使用 zero-shot 设置,而不是微调或者 few-shot 设置,以检查模型的原始能力。LLM 还加入了图片 OCR 结果 + text 作为输入的实验。所有的实验都是在 NVIDIA A100 图形处理器上进行的。


主要结果


表 4 展示了实验结果:



一些重要发现包括:


- CMMMU 比 MMMU 更具挑战性,且这是在 MMMU 已经非常具有挑战性的前提下。  


GPT-4V 在中文语境下的准确率仅为 41.7% ,而在英语语境下的准确率为 55.7% 。这表明,现有的跨语言泛化方法甚至对于最先进的闭源 LMM 都不够好。


- 与 MMMU 相比,国内具有代表性的开源模型与 GPT-4V 之间的差距相对较小。  


Qwen-VL-Chat 和 GPT-4V 在 MMMU 上的差异为 13.3% ,而 BLIP2-FLAN-T5-XXL 和 GPT-4V 在 MMMU 上的差异为 21.9% 。令人惊讶的是,Yi-VL-34B 甚至将 CMMMU 上开源双语 LMM 和 GPT-4V 之间的差距缩小到了 7.5% ,这意味着在中文环境下,开源双语 LMM 与 GPT-4V 相当,这在开源社区中是一个有希望的进步。


- 在开源社区中,追求中文专家多模态人工通用智能 (AGI) 的游戏才刚刚开始。  


团队指出,除了最近发布的 Qwen-VL-Chat、 Yi-VL-6B 和 Yi-VL-34B 外,所有来自开源社区的双语 LMM 只能达到与 CMMMU 的frequent choice 相当的精度。


对不同题目难度和题型的分析


- 不同题目类型


Yi-VL 系列、 Qwen-VL-Plus 和 GPT-4V 之间的差异主要还是因为它们回答选择题的能力不同。


不同题目类型的结果如表 5 所示:



- 不同题目难度

结果中值得注意的是,最好的开源 LMM (即 Yi-VL-34B) 和 GPT-4V 在面对中等和困难的问题时存在较大的差距。这进一步有力地证明,开源 LMM 和 GPT-4V 之间的关键差异在于在复杂条件下的计算和推理能力。

不同题目难度的结果如表 6 所示:


错误分析


研究者们仔细分析了 GPT-4V 的错误答案。如下图所示,错误的主要类型有感知错误、缺乏知识、推理错误、拒绝回答和注释错误。分析这些错误类型是理解当前 LMM 的能力和局限性的关键,也可以指导未来设计和培训模型的改进。



- 感知错误 (26%) : 感知错误是 GPT-4V 产生错误示例的主要原因之一。一方面,当模型无法理解图像时,会引入对图像基本感知的偏差,从而导致不正确的响应。另一方面,当模型遇到特定领域知识、隐含意义或不明确的公式中的歧义时,它往往表现出特定领域的知觉错误。在这种情况下,GPT-4V 倾向于更多地依赖基于文本信息的回答 (即问题和选项) ,优先考虑文本信息而不是视觉输入,从而导致理解多模态数据的偏差。


- 推理错误 (26%) : 推理错误是 GPT-4V 产生错误例子的另一个主要因素。在模型正确地感知到图像和文本所传达的意义的情况下,在解决需要复杂逻辑和数学推理的问题时,推理过程中仍会出现错误。通常,这种错误是由于模型较弱的逻辑和数学推理能力造成的。


- 缺乏知识 (22%) : 缺乏专业知识也是 GPT-4V 错误作答的原因之一。由于 CMMMU 是评价 LMM 专家 AGI 的基准,因此需要不同学科和子领域的专家级知识。因此,将专家级知识注入 LMM 也是可以努力的方向之一。


- 拒绝回答 (12%) : 模型拒绝回答也是一种常见的现象。通过分析,他们指出模型拒绝回答问题的几个原因: (1) 模型未能从图像中感知到信息;(2) 是涉及宗教问题或个人现实生活信息的问题,模型会主动回避;(3) 当问题涉及性别和主观因素时,模型避免直接提供答案。


- 其他错误:其余的错误包括文本理解错误 (7%)、标注错误 (2%) 和答案提取错误 (5%)。这些错误是由于复杂的结构跟踪能力、复杂的文本逻辑理解、响应生成的局限性、数据标注的错误以及答案匹配提取中遇到的问题等多种因素造成的。


结论


CMMMU 基准测试标志着高级通用人工智能 (AGI) 开发的重大进展。CMMMU 的设计是为了严格评估最新的大型多模态模型 (LMMs) ,并测试基本的感知技能,复杂的逻辑推理,以及在特定领域的深刻专业知识。该研究通过比较中英双语语境下 LMM 的推理能力,指出其中的差异。这种详尽的评估对于判定模型水平与各个领域经验丰富的专业人员的熟练程度的差距至关重要。




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

来源:机器之心

相关新闻

周一围为朱丹还债两千万热搜刷屏一个月后,更炸裂的后续来了:看完才知道婚姻的真相…米其林豆浆火爆上架!高端的食材,$2.2/瓶的价格!更适合打工人的健康早餐来了~不装了,黄人饭才是更适合中国宝宝体质的健康餐啊大的要来了:谷歌Bard被曝将更名为Gemini,Ultra 1.0更强但收费、安卓App也会来前 LangChain 员工爆料更强的 Devin 2.0 要来了?所以,“世界首个AI程序员”到底造假没?原本富裕的生活更富了!澳洲顶级富豪“时薪”高达$150万,总资产暴增70%!专家呼吁开征暴利税暗流涌动的“亚裔细分法案”,犹如一颗不定时炸弹,让华裔小孩的梦校更遥远了…荷兰顶级“厕所设计公司”!造了个旋转马桶,可保持24h极度干净!网友:看完感觉更sao了!突然就不爱了!顶级心理学期刊发文:女人比男人更早失去爱情!元凶有2个…二手玫瑰走了,比梁龙更妖艳的来了美国妹子洗澡后酒店镜子浮现神秘留言!连夜出逃后,更恐怖的来了...蛇蝎骗婚女翟欣欣疑认罪或将判10年?日本致命毒妻行径更甚:骗30个男友上亿,手握多条人命!炸了!大S穿透视装去灵堂 前婆婆张兰直接来了一波更狠的.....英国更头疼的事情来了研究称咖啡或有助预防这种疾病,网友:手里的美式更香了!比《破墓》更刺激的尺度猛片,来了澳洲教育费用持续飙升,读到高中就要花$30万?专家:未来会更贵…瑞银调查发现:资产超过10亿美元的家族更关注非财务风险AlphaFold3来了,模拟、预测生命的能力更强了拖了整整70年,比三峡更重要的超级大基建,终于来了Kimi:来我们比比谁的一口气更长美股涨的更集中了,但龙头变了:特斯拉、苹果、谷歌被它们替代[观察]加元跌惨了!专家警告:如降息比美国更快更狠,随时会再暴跌来英国读语言,不知道住哪?看看这些短租房源吧,更适合读语言的你!
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。