Bendi新闻
>
“百模大战”周年考|国内大模型盘点:305个大模型发布,备案率约四成,如何寻找变现、破局之路

“百模大战”周年考|国内大模型盘点:305个大模型发布,备案率约四成,如何寻找变现、破局之路

7月前

【编者按】:

本周,OpenAI推出新一代旗舰AI模型——GPT-4o。而早在2023年3月15日,GPT-4就已正式问世,其强大的文本生成能力迅速使生成式AI成为全球焦点,掀起了一场AI技术竞赛的浪潮。

在国内,生成式大模型的发布同样风起云涌。2023年3月16日,百度发布“文心一言”大模型;2023年4月10日,商汤科技的日日新发布;2023年4月11日,阿里巴巴的通义千问发布;2023年7月7日,华为云推出盘古大模型3.0……各方力量争先恐后,争奇斗艳,这股热潮被形象地称为“百模大战”。

那么,一年多过去了,国内大模型企业的发展现状如何?硅谷的生态又有怎样的新变化?在这一领域中,科技巨头和初创企业展现出了怎样的发展方向?对此,《每日经济新闻》特推出《“百模大战”周年考》策划,深入探讨这些问题。

一年前的3月15日,随着OpenAI多模态预训练大模型GPT-4的发布,国内包括百度、华为、腾讯等科技巨头,百川智能等初创企业,以及智谱AI研究院等研究机构纷纷扬帆起航,投身到人工智能(AI)大模型开发,试图搭上这趟时代的列车,轰轰烈烈的“百模大战”也由此开启。

据《每日经济新闻》记者的不完全统计,截至今年4月底,国内共计推出了305个大模型。而截至5月16日,只有约140个大模型完成生成式人工智能服务备案,占发布总量的45.9%。这意味着,还有约165个大模型尚未获得“过审”机会。

这一严峻现实的背后除了有技术层面的难度,还有训练和推理过程中高昂算力成本的制约;即便是跨过这一关,大模型企业如何实现商业化,依然着面临不小的难度。而对这场竞赛中可能被“出局”的公司来说,未来的路又在何方呢?

现状:305个大模型发布,
仅约四成完成备案

GPT-4的发布在全球掀起了“炼大模型”的热潮,面对这一新蓝海,科技巨头、初创企业以及科研院校相继开启布局,没人想错过这趟时代的列车。

据《每日经济新闻》不完全统计,截至今年4月底,国内共推出了约305个大模型,在过去一年推动着语言理解、图像识别等多个领域的技术进步。

图片来源:每经制图


截至2024年5月16日,国内共有约140个大模型完成生成式人工智能服务备案,占305个大模型的45.9%左右。

此前,国家网信办有关负责人就《办法》相关问题回答媒体提问时介绍,《办法》规定,利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务,适用本办法。

在已备案的大模型中,在地域分布上,北京以70个备案大模型领跑全国,凸显了其在AI领域的集聚效应。上海和广东紧随其后,分别有28个和19个模型备案。


图片来源:每经制图

而“140”这一数字同时也意味着,从备案层面来看,大约还有165个大模型依旧未通过备案,无法公开向公众提供服务。这些尚未能“过审”的大模型中,不乏一些备受关注的明星项目,包括曾号称是“国内首个ChatGPT”的元语智能大模型ChatYuan。

更多未完成备案的是“学院派”大模型。在305个大模型中,有60个大模型是由大学或研究院所研发。或许是由于研究机构的项目更偏重学术探索,而非商业应用,备案动力或流程可能不如企业迅速。也有大模型转向“境内深度合成服务算法”备案,例如恒生电子的大模型。

一名大模型行业创业者对《每日经济新闻》记者介绍称,当前模型相关的备案申请有点像专利申请,并不一定会通过,且申请周期较长,约在4~6个月。他表示,当下,大模型只要做To C服务,就需要备案,而在B端,一些大客户会要求大模型公司完成备案工作。

不过他同时强调,没备案的大模型也不代表就消失在市面上,很多来自研究所、大学的大模型仅仅只用于研究,就没有动机去完成备案。

一家大模型头部企业从业人士也告诉记者,来自大学的大模型,如果只做自己学术范围内的研究,是可以不用备案的。

“百模大战”行至此时,最终留下3~5家大模型已经成为行业对于这场竞赛最终结局的共识。“大模型这个行业(到最后)可能就不存在了,未来大模型就是几个最基本的底座,只有少数的几家公司。”行行AI董事长、顺福资本创始人李明顺曾在接受《每日经济新闻》记者采访时坦言。

难点:成本高,日活千万需年入
超100亿元才能覆盖数据中心成本

算力资源的稀缺性是制约大模型发展的关键瓶颈。对不少大模型来说,没能挺过一周年,难搞的算力要负很大责任。对于模型厂商而言,目前主要的算力成本包括预训练成本和推理成本。模型推理应用阶段对算力的需求要远远高于训练阶段。

据中国工程院院士郑纬民计算,在大模型训练的过程中,70%的开销要花在算力上;推理过程中95%的花费也是在算力上。

以GPT-4为例,该模型的训练需要一万块英伟达A100芯片跑上11个月。假设每块A100的成本为10000美元(价格因供应商和购买数量而异),那么一万块A100的总成本约为1亿美元。

对于许多急匆匆踏上大模型赛道的创业公司或科技企业来说,在“烧”了一阵子钱后,他们绝望地发现,算力不仅越来越贵,质量也开始下降。

郑纬民表示,目前,市面上只有三类系统可支持大模型训练。其中,基于英伟达GPU的系统一卡难求;基于国产AI芯片的系统面临国产卡应用不足、生态系统有待改善的问题;而基于超级计算机的系统,虽然可在作好软硬件协同设计的情况下实现大模型训练,但需在超算机器尚未饱和的前提下操作,私人企业获得超算设备的机会并不大。

据英特尔方面介绍,在大模型领域,去年关注点更多是在模型训练上,对成本和功耗并不那么重视,彼时,企业都希望能训练一个自己的通用大模型。随着很多通用大模型被训练出来,今年关注的重点则转移到了推理。对企业来说,大模型训练出来是需要变现且能够盈利的。但目前市场上很多大模型都是基于开源的,性能差不多,用于训练的数据也差不多,很难通过差异化来盈利。

没有足够的资金支撑推理过程,成了很多创业者败退的原因之一。为了降低成本,部分企业正在尝试探索是否可以用CPU来做大模型推理。从当前一些案例来看,在130亿参数以下的大模型中,CPU是可以做到的这一点的。

然而,即便是熬过了推理关,企业要将大模型变现仍有不小的难度。在行云集成电路创始人季宇看来,大模型的商业落地与早期互联网时代相比区别很大,边际成本仍然非常高。大模型每增加一个用户,基础设施需增加的成本是肉眼可见的,一个月几十美元的订阅费用根本不足以抵消背后高昂的成本。

更为关键的是,眼下大模型要大规模商业化,在模型质量、上下文长度等方面还有进一步诉求,不排除会进一步增加边际成本。目前来看,日活千万的通用大模型一年需超过100亿元的收入才能支撑其背后的数据中心成本,未来大模型要像互联网产业一样服务上亿人,成本一定是迈不过去的槛。

寻找新“航道”:投身应用
或专注垂类细分行业

如果说“百模大战”最后的赢家只属于少数几家公司,那在这场赛事中被淘汰的公司,未来会走向何方?

昆仑万维董事长方汉曾在接受《每日经济新闻》记者采访时表示,“百模大战”会淘汰一部分公司,剩下的科技公司肯定会继续全速前进。

在行云集成电路创始人季宇看来,当下和未来两三年,大模型的商业探索会在成本和Token质量上相互妥协,并逐渐分化为两派。

一派是质量优先,用高端系统打造高质量的通用大模型,寻找超级应用来覆盖高昂的成本。另一派是成本优先,用足够便宜的硬件提供基本够用的Token质量,寻找垂直场景的落地。若能在同样的成本下买到规格大得多的芯片,跑一个百亿千亿模型,支持超长上下文,商业化的空间会比今天大得多,就像曾经的显卡和游戏行业一样。

启明创投合伙人周志峰认为,当下,绝大多数的大模型企业是包着大模型的皮,裹着应用的心,“拥有模型能力的团队更容易在算法、模型、数据、模型的加速方面去做优化,以达到体验更好的产品,尤其对比那些用第三方模型纯粹做应用的公司。这一类公司其实不是模型公司,未来一定会是一家应用公司”。

周志峰以字节跳动为例,从今日头条到抖音到TikTok,背后的轴是AI驱动的推荐引擎。“字节跳动第一轮、第二轮融资的时候跟我们投资人讲得更多的故事是AI驱动的推进引擎,而今天不会再去说字节跳动是一家AI技术公司,只会记得是哪几个应用造成了这么大的规模。”同理,今天大部分的大模型公司未来也一定是靠它最终闯出了超级应用,大家因为这个超级应用而记住这家公司。

李明顺也持同样的观点,即不远的未来,有一部分大模型公司要转型成应用公司,因为大模型领域不需要这么多公司,“有一些大模型公司的创始人有Plan A和Plan B的双计划,就是一旦我的模型实在是拼不过前面的5家之后,就要被迫在一些垂直领域里面找到生存之地,它就会转型为一家应用公司。”

在备案成功的大模型中,部分模型已经从通用型转变为聚焦特定领域或行业的细分垂类模型。

中科闻歌董事长王磊在接受《每日经济新闻》记者采访时坦言,在过去的半年到一年内,适当做小行业大模型,降低参数规模的趋势已经变得非常明显。真正成功的商业应用不是制造一个巨无霸,而是能够被用户广泛使用且价格适中。“实用至上是关键,不必为了面子而去追求大规模,高昂的代价会影响产品的市场推广和用户的使用,实用性才是商业发展的主导原则。”

王磊表示,目前国内企业都意识到,最受欢迎的规模是70亿和130亿,300亿是单台推理的参数规模,比较受欢迎。“在我们的大模型发布时,国外网友评价这是企业级应用的小型参数规格。我认为一般的企业可能难以承受更大规模的产品。对于文本生成任务,这个规模基本上是足够的,但对于一些特定领域的任务,还需要强化模型的能力。”

第四范式也同样坚定选择投入行业大模型。“如果说无限把模型做大,往里面放无限多的数据,最后可能会达到AGI的状态,但是在每一个垂直应用,我们都要平衡好能力以及代价”。创始人戴文渊此前在第四范式的业绩沟通会上也表示,从技术的角度来说,第四范式也追求AGI,但是与此同时,“对于每一个客户的具体场景,我们也要做一定的裁剪,比如说这个考试只考数学,不一定需要让它有物理的能力。”

记者|可杨 杨卉
编辑|何小桃 兰素英 杜波
校对|汤亚文
|每日经济新闻  nbdnews  原创文章|
未经许可禁止转载、摘编、复制及镜像等使用
如需转载请向本公众号后台申请并获得授权

微信扫码关注该文公众号作者

来源:每日经济新闻

相关新闻

从“百模”到“千体”:大模型智能体的竞争格局、商业模式和技术挑战李彦宏批“百模大战”:“卷模型”造成巨大的算力浪费;减持套现1.69亿美元,黄仁勋创新纪录丨AI周报“我们坚持开源!”阿里云发布“地表最强”中文大模型:半年一迭代、性能翻倍?如何把商业交给大模型?京东科技何晓冬:需要更严肃地把大模型“幻觉率”降下来AI早知道|商汤科技发布“日日新5o”;支付宝发布国内首批多模态医疗大模型3 个月砸 1000 万美元肝出“最强”大模型?黑马 Databricks:我们完虐 Grok、Llama,还更开放3个月砸1000万美元肝出“最强”大模型?黑马Databricks:我们完虐Grok、Llama,还更开放港大发布XRec:首个让推荐系统「会说话」的智能大模型AI视觉的“大一统”:从CV到多模态,从行业大模型到机器人,旷视如何布局?大模型应用成本卷到了千元级!云天励飞发布“深目”AI 模盒:搭载自研芯片,单手可托起清华汪玉教授团队支招:如何把“大”模型部署到“小”设备上 | Q福利一文解读:如何理解“大模型时代”的狂飙趋势?|投资笔记第162期解密PC的AI进化:AI大模型如何“压”进PC?Nature重磅:大模型的谎言如何“破”?牛津团队提出新方法,无需人工监督或特定领域知识对话潞晨科技尤洋:如何把大模型价格“打”下来?中国移动千亿多模态大模型发布,「九天-九九」风趣畅聊堪比GPT-4o当消费遇上AI:大模型如何成为行业“网红”?多位AI大牛被曝离职创业;「国家队」下场,移动、电信发布大模型;谷歌手动删除并回应新AI搜索失误丨AI情报局复旦大学最新研究:如何让大模型敢回答“我不知道”?Llama 3拿下“赛点”?大模型角力场,开源与闭源之争仍在继续 |大模界剑桥大学:基于语音的大模型攻击,轻松“操纵”多模态大模型何恺明“被拒”缺席、语言模型大行其道,今年的CVPR,彻底变了?颜水成挂帅,奠定「通用视觉多模态大模型」终极形态!一统理解/生成/分割/编辑只要千元级,人人可用百亿级多模态大模型!国产「AI模盒」秒级训练推理
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。