Bendi新闻
>
承诺10年不套现, 62岁的李开复要陪AI大模型“长跑”

承诺10年不套现, 62岁的李开复要陪AI大模型“长跑”

6月前

“我个人之所以做这个事情(创办零一万物),是因为这是我40多年的梦想,我在写博士申请信时就提到,AGI是我的梦想,今天,我有了实现这个梦想的机会,而这也是推动我努力的主要动力”。

5月13日,零一万物CEO李开复在接受21世纪经济报道记者采访时如此表示。

1983年,22岁的李开复在向卡内基梅隆大学提交的博士申请信中写道:“AI 是对人类学习历程的阐释,对人类思维过程的量化,对人类行为的澄清,以及对人类智能的理解。AI是人类认识并理解自己的最后一里路,我希望加入到这个全新绽放、充满前景的未来科学领域”。

过去几十年,尽管李开复经历了多种身份和角色的转变,但他始终在与AI打交道。

2023年之前,李开复已经专心做了十几年的投资人,并投出了不少成功的AI公司,而2022年底横空出世的ChatGPT,犹如一把神奇的钥匙,不仅打开了新世界的大门,也让向来沉稳的李开复多了些“冲动”。

2023年3月,李开复官宣了自己的创业规划,同年7月,“零一万物”正式亮相。

截至目前,零一万物已经完成了“开源+闭源”双轨模型的战略布局。

在开源方面,零一万物此前发布的Yi系列开源模型已升级到Yi-1.5,包括34B、9B、6B 三个版本,且提供了 Yi-1.5-Chat 微调模型可供开发者选择。

闭源方面,零一万物则最新发布了千亿参数规模的Yi-Large。在该底座模型之上,零一万物同步官宣了ToC 生产力应用 “万知”和ToB的 “API 开放平台”。

同时,李开复还透露,零一万物已启动下一代 Yi-XLarge MoE 模型训练,将冲击 GPT-5 的性能与创新性。

可以看出,在成立一周年之际,零一万物的发展思路已经十分清晰——以开源模型构建生态,以闭源模型展开 AI-First 探索。而对李开复而言,他对这次创业下定了决心,也采取了破釜沉舟的态度。

李开复向 21 世纪经济报道记者表示,“一年前我跟投资人做了承诺,十年不套现”。言下之意,这次创业他的核心目的并不是赚钱。但他同时表示,“对于联创和团队,他们比我年轻,我们会经过各种手段,让他们能够合理的得到套现。但我觉得最好的套现方式是赶快上市,这是我们未来两年会努力的(目标)。”

从狂奔到长跑

过去一年,国内的大模型产品百花齐放。

李开复表示,“包括零一万物在内的中国大模型公司都狂奔了一年,因为一年前我们感觉太落后了。但今天我们可以非常自豪地说,通过一年的努力,我们在模型方面至少赶上了美国最顶尖的大模型”。

而接下来,李开复认为中国大模型公司需要对未来有沉淀和展望,不能只是拼命狂奔,而是要思考怎么进入长跑模式。

最近,对于大模型的发展业内也产生了一些分歧。

有一部分观点认为应该疯狂地追AGI,他们觉得AGI一旦发生世界都将改变;另外的观点则是认为大模型做得越大越难用,还不如赶快找到PMF。

PMF(Product-Market Fit)是指产品与市场的契合度,这在移动互联网的鼎盛时期,是众多初创企业追求的核心目标。

但在李开复看来,上面两个观点都不完整。“我们非常认可PMF理论,因为我们不觉得有任何一种技术可以在长期时间里只靠技术领跑所有竞争,我觉得最终产品的胜出一定要靠非技术的优势达到口碑的传播”。

因而他认为,做所有产品都应该基于PMF,而不是胡乱去烧钱。但是在AI 2.0时代,仅仅追求产品与市场契合远远不够。在PMF的基础上,应当引入Technology(技术)与Cost(成本)组成四维概念——TC-PMF。

原因在于,两个时代在创业基础设施层面存在决定性的差异。移动互联网时代,用户规模增长所带来的边际成本很低;而在大模型时代,模型训练和推理成本构成了每一个创业公司必须要面临的增长陷阱。

用户增长需要优质的应用,而优质应用离不开强大的基座模型,强大基座模型的背后往往是高昂的训练成本,接着还需要考虑随用户规模增长的推理成本。所以,能否在传统的PMF基础上,找到提升产品力和降低成本的平衡点,将决定大模型应用能否爆发。

“这比传统PMF难上一百倍”。李开复坦言。而现阶段,随着高性能计算硬件的迭代和模型优化技术的普及,大模型推理成本的大幅度下降已经成为可预见的趋势所在。这也是整个行业都认为大模型应用即将迎来爆发的重要依据。

国内商业模式有待摸索

5月13日,李开复还透露了另外一个关键信息——去年9月开始,零一万物便聚焦生产力、社交赛道,在海外陆续上线了4款产品。目前,海外生产力应用总用户接近千万,营收今年预期过亿元人民币,并且产品 ROI 为1,初步摆脱烧钱获客。

对零一万物而言,大模型应用在海外市场取得的成绩,成功验证了 AI-First 产品的用户订阅制商业模式。

此前在AI 1.0时代,由于人工智能还未展现出高泛化性和涌现能力,针对头部客户做私有化部署的模式成为主流,但时间已经证明,偏项目制的重交付模式所带来的营收增长存在上限,其可持续性挑战严峻。

所以在AI 2.0时代,业内对于大模型商业模式的探索也充满期待。目前来看,ToB的API和ToC的订阅服务,将是未来大模型的主要收费方式。

零一万物API平台负责人蓝雨川向记者表示,API 的商业模式已经在海外得到充分验证,作为标准化产品的 API 复用性更强,商业模式也更趋近于云服务。

而在ToC产品方面,零一万物近日也在国内上线了一站式 AI 工作站“万知”,这是基于闭源模型 Yi-Large 所做的一个生产力应用。但是,由于海外市场与国内市场在付费意愿、市场环境方面存在差异,目前万知采取的是免费模式。

实际上,这也是国内ToC大模型应用遇到的一个共同挑战。有大模型厂商人士向记者表示,从SaaS生态过去多年的发展情况就能看出,中国市场更习惯项目制付费模式,对于订阅模式的付费意愿比较弱,现在直接推大模型应用的订阅收费,难度很大。

李开复也表示,零一万物ToC应用的用户付费,会以国外为主。“国内我们会观察,今天万知还没有收费计划,因为同时要考虑给用户带来的价值和友商的差距,还有整个行业用户是否愿意某些功能和产品付费,我们还在观察中。”

但从趋势上来看,李开复仍然认为今年会是大模型应用爆发的元年。“整个普惠点不会同时到来,有些领域的应用要求很高,普惠点就会来得晚一些,有些领域今年就会爆发。比如生产力工具,它产生的内容最终是用户负责,所以即便有一些错误需要微调,也是由用户最后决定是否修改。”

对用户来说,他们判断是否使用一款应用的标准,就是能否比没有这款工具时在更短的时间里产生更好的内容。“按照这个标准,生产力应用的TC-PMF已经达到了,而且还可以更好,所以生产力工具今年会开始爆发,明年则会更大的爆发”。李开复说。


更多互联网行业爆料,以及职场资讯,职业技能经验分享

关注我,给你好看

部分内容引用于网络,如有侵权,请联系删除。

【回复“健康指南”,Get《程序员健康指南》电子书】

回复“1024”,Get 程序猿求职面试葵花宝典电子书】


微信扫码关注该文公众号作者

来源:西二旗猿圈儿

相关新闻

李开复提出「PMF 不再适用大模型 AI-First 创业,要追求 TC-PMF」,如何理解?不玩“期货”的快手接棒Stability AI,国产之光可图大模型Kolors领跑开源生态李彦宏批“百模大战”:“卷模型”造成巨大的算力浪费;减持套现1.69亿美元,黄仁勋创新纪录丨AI周报数十万字秒读,2分钟出PPT!李开复推荐的「万知」AI助手,小程序免费用李彦宏内部评璩静风波;美国拟限制“开源 AI 大模型出口”;OpenAI 人工智能搜索产品有望于下周一推出 | AI 周报美国拟限制“开源 AI 大模型出口”;百度副总裁“狼性职场言论”惹争议,李彦宏情绪激动点评;谷歌一半员工没干活?| Q资讯李开复:不参与“价格战”、模型盲测国内第一欢迎 PK李开复:不参与“价格战”、模型盲测国内第一欢迎PK苦等10年!终于,加州坑爹的“47号法案”要大改啦!等了10年!终于!加州坑爹的“47号法案”要大改啦!苦等10年!终于!加州坑爹的“47号法案”,要大改啦!52岁李英爱「时隔20年」再次出演新版大长今!剧迷敲碗:闵大人也要回归斯坦福某 AI 团队抄袭面壁智能开源大模型/董明珠称「打工人要休闲可以辞职」/百度被《时代》周刊评为全球领导者对话林咏华:刚在“AI春晚”上开源了3.4T数据集的智源,是如何死磕大模型数据难题的周鸿祎向李彦宏“开炮”:有些名人胡说八道别被忽悠了;全球最强开源大模型Llama 3发布:最大模型参数将超4000亿丨AI周报李开复:中国需要自己的ChatGPT,当下国内AI工具“都还不够好”李彦宏:开源大模型不如闭源,后者会持续领先;周鸿祎:“开源不如闭源” 的言论是胡说八道曝小扎写信“挖角”DeepMind;我国10亿级参数大模型超百个;Stability AI开源代码生成模型丨AIGC大事日报美国「开源 AI 大模型」出口限制法案:43票赞成、3票反对!第一轮通过!电动汽车行业这个“大年”开局不顺李宁的「科技长跑」“Kimi概念”降温,长文本“担不起”大模型的下一步“驯服”不受控的大模型,要搞定哪些事?| 专访达观数据副总裁王文广扎克伯格最新2万字访谈:价值百亿美金的“最强开源大模型”Llama3及背后的一切
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。