Bendi新闻
>
2B参数性能超Mistral-7B:面壁智能多模态端侧模型开源

2B参数性能超Mistral-7B:面壁智能多模态端侧模型开源

机器之心报道

编辑:泽南

千元机也能本地运行。

在大模型不断向着大体量方向前进的同时,最近一段时间,人们在优化和部署方面也取得了成果。


2 月 1 日,面壁智能联合清华 NLP 实验室在北京正式发布了旗舰端侧大模型「面壁 MiniCPM」。新一代大模型被称为「性能小钢炮」,直接拥抱终端部署,同时也具有同量级最强的多模态能力。


面壁智能本次提出的 MiniCPM 2B 参数量仅有 20 亿,使用 1T token 的精选数据训练。这是一个参数量上与 2018 年 BERT 同级的模型,面壁智能在其之上实现了极致的性能优化与成本控制,让该模型可以「越级打怪」。


面壁智能联合创始人、CEO 李大海将新模型与业内知名开源大模型 Mistral-7B 进行了对比,在多项主流评测榜单上,MiniCPM 2B 的性能全面超越了后者。



与微软近期提出的「小模型」Phi-2 相比,MiniCPM 也有很大优势。



李大海表示,面壁智能的新模型还能越级实现 13B、30B 甚至 40B 模型的能力。在最接近用户体验的评测榜单 MT-Bench 上,MiniCPM 取得了 7 分的成绩(GPT-4-Turbo 为 9 分)。



在现场,面壁智能也演示了 MiniCPM 的实际应用效果。虽然参数量不大,但该模型可以实现文本翻译、角色扮演等诸多大模型应有的能力,并拥有丰富的知识,难度较高的代码解释任务也不在话下。



因为能够部署在端侧,在面临一些突发事件时,MiniCPM 也可以给人们提供及时帮助:



最近,各家手机厂商纷纷提出了端侧大模型,在把大语言模型压缩到较小体量之后,我们就能用它连接更多场景,在算力、内存受限的情况下获得更高程度的智能。相比之下,面壁智能提出的新技术更加轻便,可适用于更低配置,或较早期型号的手机。


据面壁智能介绍,MiniCPM 端侧模型经历了 Int4 量化后压缩了 75% 体量,只占用 2G 内存,与此同时性能几乎没有损失,因此已在各类常见型号的手机上实现了跑通。



因为支持移动端 CPU 的推理,MiniCPM 可以很大程度上节约使用成本。面壁智能为我们算了一笔账:一台搭载骁龙 855 的手机使用 MiniCPM,一块钱电费可处理 170 万 token,这个价格仅为云端运行的 Mistral-Medium 的 1%。


除了端侧模型,面壁智能还展示了其在多模态大模型方面的探索,并开源了 12B 参数量的 OmniLMM。在发布会上,面壁智能演示了 Gemini 发布时同款的石头剪刀布 demo。用英文向 AI 提问:我正在玩什么游戏?大模型会回答:石头剪子布。



与此同时,OmniLMM 也可以认出人类的手势,还能告诉你如果要赢应该出什么。


OmniLMM 还可以理解很多图片中的信息并进行推理,如地标建筑、电视台的台标、人们组织的活动等内容。



看来,我们距离真正多模态的大模型,以及新形态的应用已经不远了。


面壁智能大模型极致性能的背后,源于该公司长期以来的技术积累。自 2021 年,面壁智能就构建了高效的技术栈,集中在 Infra、算法和数据方法论三个方向。其中,自研的 BMTrain 高效训练框架至关重要。



在算法层面上,面壁智能也积累了模型沙盒体系,把大模型从炼丹提升到了实验科学的程度,在理论上不断寻找超参数和规模的最优解,如最优的 batch size、所有尺寸模型通用的超参数配置。


目前,面壁智能已积累了大量高质量的数据。在昨天的发布后,面壁智能开源了自身的新一代大模型系列(包含 MiniCPM-SFT / DPOMiniCPM-V & MiniCPM-SFT / DPO-int4),以及训练 MiniCPM 两个阶段的数据配方以供行业参考。


开源地址(含技术报告):


MiniCPM GitHub:https://github.com/OpenBMB/MiniCPM

OmniLMM GitHub:https://github.com/OpenBMB/OmniLMM


面壁智能源于清华 NLP 实验室,是在国内较早开展大模型研究的团队之一,其在 2018 年发布了全球首个基于知识指导的预训练模型 ERNIE。2022 年 8 月开始公司化运作的面壁智能,去年经历了两轮融资,其推出的应用面壁露卡也拿到了网信办第二批大模型备案。


目前,面壁智能已经组建起 100 余人的科研团队,其中 80% 人员来自清北,平均年龄 28 岁。



面壁智能正在构建大模型 + Agent 的双引擎战略,希望能构建出更小规模、更快速度、更低成本的解决方案。


今年,面壁智能还将加快速度迭代新技术。「我们会在春节之后不断发布 MiniCPM 的新版本,性能还会进一步提升。我们要给大家春节的休息时间,」刘知远表示。




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

来源:机器之心

相关新闻

国产多模态大模型开源!无条件免费商用,性能超Claude 3 Sonnet最强开源多模态生成模型MM-Interleaved:首创特征同步器,刷新多项SOTA最强开源多模态生成模型MM-Interleaved:首创特征同步器2B小钢炮碾压Mistral-7B,旗舰级端侧模型炸场开年黑马!1080Ti可训,170万tokens成本仅1元年轻人的第一个多模态大模型:1080Ti轻松运行,已开源在线可玩面壁智能低调开源大模型“理科状元”!LeetCode 周赛超越80%人类选手,推理性能超 Llama3-70B世界顶尖多模态大模型开源!又是零一万物,又是李开复零一万物Yi-VL多模态大模型开源,MMMU、CMMMU两大权威榜单领先AI早知道|Claude计划增加图像识别;Yi-VL多模态语言模型全球开源零一万物发布Yi-VL多模态语言模型并开源,测评仅次于GPT-4VAI早知道|元象开源首个多模态大模型XVERSE-V;信通院发布国内首个汽车大模型标准元象首个多模态大模型 XVERSE-V 开源,刷新权威大模型榜单,支持任意宽高比输入超越 GPT-4V 和 Gemini Pro!HyperGAI 发布最新多模态大模型 HPT,已开源开源多模态SOTA再易主,19B模型比肩GPT-4v,16G显存就能跑Meta无限长文本大模型来了:参数仅7B,已开源年轻人的第一个多模大模型:1080Ti轻松运行,已开源在线可玩苹果加入开源大战,官宣端侧小模型OpenELM!参数2.7亿到30亿一台M2 Mac可跑GLM-4开源版本终于来了:超越Llama3,多模态比肩GPT4V,MaaS平台也大升级周鸿祎向李彦宏“开炮”:有些名人胡说八道别被忽悠了;全球最强开源大模型Llama 3发布:最大模型参数将超4000亿丨AI周报完全开源!谢赛宁发布最新SOTA多模态模型Cambrian-1,“不与GPT-4V媲美”上海AI Lab开源首个可替代GPT-4V的多模态大模型国产多模态大模型狂飙!颜水成挂帅开源Vitron,破解图像/视频模型割裂问题清华开源全球首个基于U-ViT的多模态扩散大模型UniDiffuser国内首个开源千亿参数MoE大模型来了!性能超Grok-1,单张GPU可跑
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。