Bendi新闻
>
国产大模型的价格已经卷出网约车大战和百亿补贴的味儿了

国产大模型的价格已经卷出网约车大战和百亿补贴的味儿了

6月前
作者周一笑
邮箱[email protected]
作者Yoky
邮箱|[email protected]

登录就送500w tokens!1块钱 100w tokens!一降再降!!仅需0.0008元/千tokens!

没错,互联网价格战熟悉的“味”,已经悄无声息的打到了大模型的战场。

技术狂飙了一年,大模型公司们早就按捺不住要搅弄商业风云的心,5月份,多家大模型产品宣布了密集的降价策略。

严格来说,是堪称为大模型界“拼多多”的DeepSeek,率先点燃了价格战的引线。

5月6日,DeepSeek官网推出了“高性价比”的大模型,将旗下的大模型DeepSeek-V2的价格降到了每百万token输入1元、输出2元(32K上下文),能力对标GPT-4、llama 3-70B,价格仅为GPT-4的近1%。开发者登录 DeepSeek 开放平台送 500万 tokens。

智谱第一个不服。5月11日,智谱AI调整了旗下入门级大模型GLM-3-Turbo(上下文长度128k)的价格,从0.005元 / 千tokens降低到0.001元 / 千tokens。此外,开放平台新注册用户获赠从500万tokens提升至2500万tokens(包含2000万GLM3-Turbo和500万GLM4)。而GLM-3 Turbo Batch批处理API还将进一步便宜50%——0.0005/千 tokens,也就是1元200万tokens。

5月15日,火山引擎原力大会上,豆包高调的将本来在水面下的价格战,赤裸的搬到了台面上。

会上火山引擎总裁谭待宣布豆包主力模型在企业市场的定价只有0.0008元/千 tokens,0.8厘就能处理1,500多个汉字,比行业便宜99.3%。

现场观众的激动程度堪比听到大主播在直播间大吼:“家人们,我们把大模型的价格打下来了!”

在DeepSeek发起,几个核心厂商跟进的局面下,也彻底拉开了大模型商业竞争进入了“卷价格”的新赛段。

1

比价,用百度阿里当“活靶子”

有意思的是,大家比价归比价,都拿百度文心和阿里通义当靶子。

无论是DeepSeek、智谱还是豆包,都以文心和通义为标尺进行比价。当然,这也侧面反映了,这两个模型确实在中国大模型中,占据了很重要的位置,甚至是参照物。

虽然不谈性能只谈价格的方式无异于“耍流氓”,但对于价格敏感型的客户而言,价格基本上就是唯一的决定性因素。

智谱在公布新大模型时,做了直观的比价图,GLM-3-Turbo的价格是阿里qwen-turbo的八分之一,是百度ERNIR 3.5的十二分之一。当然对比ChatGPT的时候,就不能抛开性能,只比价格了。

同样,豆包在发布豆包通用模型pro的价格时,也拉来了百度和阿里的对标模型作为价格对比。基本上,行业价格等于ERNIE和Qwen的平均价格。

还有卷的更狠的,直接拉国内外的主流模型们进行集体比价。

而针对被当活靶子以及是否参与价格战的问题,百度在豆包宣布全面降价的下午便回复道:“文心大模型日均处理Tokens文本已达2490亿,并强调使用大模型不应只看价格,更要看综合效果。”

为了能够让客户更了解低价的现实意义,各家大模型厂商都在努力“接地气”。

1块钱在现实世界可能连个包子都买不到,但是在智谱,你能写1万条小红书(以350字计算);在豆包,你能读三本《三国演义》;在DeepSeek,一位普通开发者充50块钱能用好几年。

不仅卖,他们还免费送。

开发者登录 DeepSeek 开放平台就送 500 万 tokens,而智谱似乎就是要跟DeepSeek硬刚,随即宣布新注册开放平台用户赠送额度提升500%。开放平台新注册用户获赠从500 万tokens提升至2500万tokens(包含2000万入门级额度和500万企业级额度)。

有开发者表示:“如果只是自己开发测试根本用不完,热闹都是他们的,我们就负责占便宜。”

面壁智能直接喊出了“不降价,0元不限量”的活动。不过这是因为模型本身免费开源,且部署在端侧,利用终端设备算力,无需调用云端API。

有开发者向硅星人表达了自身感受:“以前薅服务器和存储空间,现在薅tokens,不出意外的话,后续几家主流的模型厂商都会跟进,我们未来3年可能都不用买tokens了。”

1

谁是最便宜的大模型?

那么问题来,到底谁是最便宜的大模型?

硅星人根据各家厂商的官方信息,汇总整理了部分大模型API的价格,直观的对比了价格,话不多说,直接上图(这可能是市面上最全的比价图了):

从图表中整理的情况来看,如果按照绝对值计算,豆包pro32k是目前市场价格最低大模型,但DeepSeek-V2的上下文文本长度为128k,对比下来,可以说是性价比最高的大模型了。

价格战对于每一代的互联网人而言,都并不陌生,降价策略通常被视为吸引更多用户、增强用户黏性和市场份额的一种有效手段,但同时,也常常逃不开“拿钱换增长”的恶性循环。

谭待讲道:“用亏损换收入是不可持续的,所以我们从来不走这条路”。

DeepSeek v2版本发布时,其员工也表示:基本纯靠模型结构创新(MLA+DeepSeekMoE)+ 超强Infra,且“目前就是大规模服务的价格,不亏本,利润率超50%”。

价格低还有利润?是怎么做到的?

影响大模型推理价格的降低的因素有很多,比如技术进步和优化就是一个直接的原因,不少开发者惊叹于幻方是怎么兼顾模型效果和成本的。

首先源于DeepSeek本身的硬实力,就是我们俗称的“有卡”。根据幻方官方信息,其幻方 AI 智能超算集群配备了 1 万张英伟达高性能的 A100 计算卡,硬件和计算资源可能也是DeepSeek能够保持低价的原因。它也是国内为数不多非大厂拥有万卡的公司。

其次是来自于架构和算法上的创新。这一点和豆包能低价是相同的。

谭待介绍道:“火山引擎在技术上有非常多优化手段,可以降低大模型成本,此外在工程上可以通过分布式推理的形式将底层算力使用得更好;另外,在混合调度方面,可以把不同负载作为混合调度,这样的成本也大幅下降。”

我们都知道,当一个行业进入了价格战阶段,就意味着产品走向了同质化。在大模型发展的早期技术的差异性还未清晰,但低价确实能够带来更广泛的渗透,于国内大模型而言,这是福还是祸?

客观上来看,大模型API价格战和推理价格的下降,有可能推动AI应用的广泛普及和创新,因为更低的成本使得更多的企业和开发者能够负担得起这项技术,也有更多的尝试空间。不过,降价能否帮助大模型厂商带来更多新增用户和付费用户,仍值得商榷。

虽然价格的降低可以短期内吸引更多用户尝试和采用AI大模型,但长期而言,技术能力的提升和创新是确保大模型应用普及和持续发展的根本。从互联网技术的发展历程中,我们可以明确看到技术创新和提升为行业带来的深远影响,这对大模型的发展同样适用。

正如移动互联网的普及并不只是因为手机价格的降低,一个重要原因是苹果推出了iPhone,将多点触控等技术引入手机,带来了新的人机交互方式,让iPhone软件生态的建立成为了可能。

价格战打到最后,受益的大概率只是少数头部企业。如果不能有效控制成本的企业若盲目加入价格竞争,无疑会丧失自身优势,陷入他人设定的竞争节奏,最后又是一轮行业洗牌。

不只要“卷”价格,更要“卷”技术,“卷”产品,全方位的“卷”,才能找到新出路。

点个在看,再走吧

微信扫码关注该文公众号作者

来源:硅星人Pro

相关新闻

卷出新高度,国产AI大模型首波价格战背后的逻辑傅盛的AI大课(4):企业专用大模型,百亿参数就够了数学都是体育老师教的!13.11和13.8谁大?大模型翻车了国产大模型卷翻机器人!这些火遍全网的机器人,都装上了星火「大脑」最接近GPT-4的国产大模型诞生了现在的网约车,都是电车了?200亿的大网红,扛不住了!最早的一批医疗大模型,已经走到了商业化时期GPT-4级模型Grok开源可商用!卷底层大模型的公司危了第一批使用大模型的程序员,已经碾压同事了… | 极客时间第一批上手大模型的程序员,已经碾压同事了第一批上手大模型的程序员,已经碾压同事了… | 极客时间会颠勺的国产机器人来了:大模型加持,家务能力满分吴晓波:大模型卷到头了,AI 赛道的新机会在哪?网约车司机,开始怀念上班的日子了“中国首父”恶臭渣男翻车了:给他生了13个娃的女友卷款几个亿跑了和年入百万的大V约饭5小时,我悟了!P70系列有3或4款新品;国内首个开源千亿参数MoE大模型来了,对标马斯克的Grok……中国版Sora震撼登场,原生16秒直出超清视频!国产黑马火了,世界模型签约多个大客户【时事】小马夫妇访德,小丽又出背影杀!但一向得体的她居然因为笑容和头发翻车了?!小马夫妇访德,小丽又出背影杀!但一向得体的她居然因为笑容和头发翻车了?!阿里云发了首份金融大模型应用指南,“百炼成金”的秘密在这里百度霸气女总裁翻车,中国的大企业还没醒过来,他们不知道新时代已经来了周鸿祎称小米应成国产车企的营销师傅,柔宇被申请破产审查,荣耀官网更换新域名,日本与欧盟研发电动汽车材料,这就是今天的其他大新闻!
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。