Bendi新闻
>
一口气读完甄嬛传剧本、大部头医书:月之暗面200万字上下文Kimi开启内测

一口气读完甄嬛传剧本、大部头医书:月之暗面200万字上下文Kimi开启内测

8月前
机器之心报道
机器之心编辑部

半年时间,月之暗面把 AI 模型支持的上下文长度提升了一个数量级,实现了 200 万字上下文的「无损压缩」。

一个能读 200 万字的 AI 助手是什么概念?这意味着,它可以一口气读完整个《甄嬛传》剧本,然后和你讨论剧情。或者一口气读完一本厚厚的中医诊疗手册,给你提出诊疗建议。对于人类来说,成为某个领域的专家可能需要 10000 个小时的学习,但对于这个 AI 来说,只需要 10 分钟就够了。


将甄嬛传全集几十万字的剧本传给 AI 助手,然后提问剧本中有哪些细节表明甄嬛的孩子是果郡王的。它能在不同时间段、各个场景的故事情节中,深入挖掘甄嬛、果郡王的情感线以及他们孩子的真相,堪比一个看了好几十遍电视剧的「甄」学家。


上传一份完整的近百万字中医诊疗手册,这个 AI 助手可以针对用户问题给出诊疗建议。


这是国内大模型创业公司月之暗面(Moonshot AI)刚刚官宣的新突破。他们打造的 Kimi 智能助手目前已经支持 200 万字超长无损上下文,并于即日起开启产品「内测」。



Kimi 智能助手于去年 10 月份正式亮相,那时就已经能够支持 20 万字的上下文窗口,是当时全球市场上能够产品化使用的大模型服务中所能支持的最长上下文输入长度(参见《大模型开启「长」时代,杨植麟的新公司把对话框容量做到了世界第一》)。但令人没想到的是,仅仅过了半年,月之暗面就将这一数字提升了 10 倍。


为什么要死磕超长无损上下文这件事?创始人杨植麟曾经解释说,「通往通用人工智能(AGI)的路上,无损的长上下文将会是一个很关键的基础技术。从 word2vec 到 RNN、LSTM,再到 Transformer,历史上所有的模型架构演进,本质上都是在提升有效的、无损的上下文长度…… 上下文长度可能存在摩尔定律,但需要同时优化长度和无损压缩水平两个指标,才是有意义的规模化。


在实际使用场景中,超长无损上下文带来的好处也是显而易见的。在支持 20 万字的时候,你就已经能够用它进行专业学术论文的翻译和理解、辅助分析法律问题、一次性整理几十张发票、快速理解 API 开发文档…… 如今,这个数字提升了一个数量级,你能拿它做的事情就更多了。


在媒体沟通会现场,月之暗面展示了一些超长无损上下文的使用场景示例。例如,你可以上传几十万字的经典德州扑克长篇教程后,让 Kimi 扮演德扑专家为自己提供出牌策略的指导。



上传英伟达过去几年的完整财报,让 Kimi 成为英伟达财务研究专家,帮你分析、总结英伟达历史上的重要发展节点。



上传一个代码仓库里的源代码,可以询问 Kimi 关于代码库的所有细节,即便是毫无注释的陈年老代码也能帮助你快速梳理出代码的结构。



也就是说,如果你有一份想要快读学习的资料,你可以把它上传给 Kimi,让它帮助你练习专业技能,或者启发新的想法。如此一来,快速学习任何一个新领域都会变得更加轻松。


不过,有时,这些文本是分布在不同的文档中的,这就需要 AI 助手具备跨文档处理的能力。据悉,Kimi 现在能够一口气精读 500 个,甚至更多数量的文档,帮助你快速分析所有文档的内容,并且支持通过自然语言进行信息查询和筛选,大大提高了信息处理效率。例如,公司 HR 可以基于业务需求,让 Kimi 快速从最近的 500 份简历中找出有某个行业从业经历,同时从计算机类专业毕业的求职者,更加高效地筛选和识别合适的候选人。



在技术上,由于没有采用常规的渐进式提升路线,月之暗面团队遇到的技术难度也是指数级增加的。为了达到更好的长窗口无损压缩性能,月之暗面的研发和技术团队从模型预训练到对齐、推理环节均进行了原生的重新设计和开发,不走「滑动窗口」、「降采样」等技术捷径,攻克了很多底层技术难点,才取得了新的突破。


基于这些突破,Kimi 在智能搜索场景也展现出了优于传统搜索引擎的能力。比如,你可以让 Kimi 主动去搜索和对比两家同领域上市公司的最新财报数据,它会根据你的问题,分析和总结最相关的多个页面,生成更直接、更准确的答案。这离不开其背后大模型的无损长上下文能力。具体来说,对于主动搜索得到的多篇资料,Kimi 会作为上下文的一部分交给模型去推理。正是因为 Kimi 大模型支持的上下文窗口足够长,窗口内的信息损失足够低,Kimi 智能助手才能输出高质量的结果,为用户带来截然不同的搜索体验。而传统的搜索引擎通常只能根据用户的问题,返回一些参杂着广告信息网页链接。


另一项与大模型的无损上下文能力息息相关的指标是指令遵循(Instruction Following)能力。指令遵循能力主要体现在两个方面:第一,模型在多轮对话中是否能够始终遵循用户的指令,理解用户的需求;第二,模型是否能够遵循复杂指令,有时候复杂指令可能长达几千、上万字。从产品推出以来的用户反馈来看,Kimi 智能助手的多轮交互和超长指令遵循能力,也同样具备显著优势。


「我们相信,大模型无损上下文长度的数量级提升,也会进一步帮助大家打开对 AI 应用场景的想象力,包括完整代码库的分析理解、可以自主帮我们完成多步骤复杂任务的智能体 Agent、不会遗忘关键信息的终身助理、真正统一架构的多模态模型等等。」月之暗面工程副总裁许欣然在媒体沟通会上表示,「无论是内存、算力还是网络带宽,历史上每一次基础技术的升级,都会解锁新的产品形态和应用场景。我们对 200 万无损上下文的 Kimi 可以带来哪些超出想象力的创新机遇充满期待。」


据 AI 产品榜(aicpb.com)的统计数据,Kimi 智能助手 2 月份的访问量已经突破 300 万。月之暗面也刚刚收获 10 亿美元的融资,成为估值 25 亿美元的 AI 独角兽。


如果你也有对超长无损上下文能力的需求,可到 Kimi 智能助手网页版 kimi.ai 首页申请抢先体验。


来上海这场大模型技术workshop,一起探讨大模型的重点技术路径

3月22日下午,来自复旦大学、波形智能、亚马逊云科技的专家学者和技术大咖们,将重点分享大模型能力对齐、长文本、Claude 3等议题[机智]

识别海报二维码或点击阅读原文即刻报名!


© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

来源:机器之心

相关新闻

争算力,争数据,争用户!零一万物、月之暗面再掀国产大模型资本战:年内亿元级融资已有20起Kimi推出付费方案?月之暗面:小范围灰度测试;OpenAI回应ChatGPT声音像斯嘉丽丨AIGC日报马斯克、贝佐斯、比尔盖茨强推!敢不敢2024一口气读完这9本书Kimi爆火!网站一度宕机,“只需10分钟,接近任何领域初级专家水平”,公司:启动200万字长文本内测一口气读完《资本论》:解密资本主义运行规律,深刻洞察社会现象腾讯参投月之暗面;太平养老获10亿融资;地平线参投一机器人3000万美金丨投融资周报月之暗面回应创始人杨植麟套现数千万美元;斗鱼主播一条小团团被捕;苹果5月7日将开发布会;全国首例AI声音侵权案一审宣判|邦早报一口气读完《沙丘》 ,零一万物宝藏API正式开箱!酷炫Demo实测,多模态中文图表体验超越GPT-4V今日神图 | 挑战一口气读完不分段不加标点符号的小作文 !一口气读完教育部改版的新教材,我忍不住跳起来鼓掌...清华唐杰团队新作:一口气生成2万字,大模型开卷长输出速读60万字《马斯克传》、手机一键生成PPT,零一万物上线AI生产力工具「万知」Kimi:来我们比比谁的一口气更长《甄嬛传》是演艺圈最大的一场「赌局」以影为镜:一场还乡修行之旅 | 一月月度影评最佳作品香港抢人!金管局、渣打...开启留学生实习项目:无网测,直通面试一周资讯|字节跳动将重新孵化游戏业务;淘宝正式开启新疆包邮计划;小红书内测跳转微信小程序功能...人人可做提示工程师!Claude上新:一键生成、测试和评估prompt一口气读懂“中国5000年家底”, 网友惊呼:这才叫“中国顶流”!【一对一介绍】87年男生,日本前30国立大学博士,大学、教学兼行政、编制内,月收入平均2万+,已购车,未婚,无宗教信仰,广州白云高盛高管亲撰写:2024年最该一口气看完的22本书吓人!美国妈妈在7岁儿鞋内找到AirTag 心底一沉:被跟踪1个多月降息预期落空?新年首月MLF"量增价平",专家:一季度有必要降息、降准实测零一万物“AI特助”:手机2分钟生成PPT,秒读数十万字文档,但财报解读不太准
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。