Kimi:来我们比比谁的一口气更长
回看2023年10月,相较于同时段前后发布的GPT-4-32k以及Claude 2.1,Kimi并没有被人打上“智能”“觉醒”之类的标签,走的也不是高高在上的科技明星范,而是选择了在产品化主打一个实用,通过支持20万文本的输入内容,对大文本进行归纳分析。彼时可以说在全球范围内,Kimi支持文本输入也是最长的。
一句人话:别焦虑,Kimi帮你整理资料。
这句反复打在Kimi官网网页的话,像不像广告,似不似软文,但这句说的很有感情也很中肯,总结了Kimi的确是目前市面上最实用的“AI赛道选手”之一。
“帮你整理资料”,这六个字代表你可以上传各种文档,包括word、pdf、txt以及图片。也支持通过访问链接来阅读互联网上的新,Kimi可以读取文本信息并归纳总结。
通过Kimi来阅读总结英文论文:
论文地址:https://arxiv.org/abs/2402.19450
通过Kimi的整理归纳,论文的主要贡献包括:
提出了一个用于评估模型的框架,这些模型已经看过整个互联网的文本。
功能化的MATH基准测试版本及其公开可用的快照。
抗污染的稳健评估。
定义了推理差距,并提出了训练差距为0的模型的开放问题。
Kimi整理归纳英文论文后的关键信息
在此时,市面上已经有名有姓的工具已经在各个不同的智能测试上积极表现自己的“进化”,但对大文件、对长文本的限制仍然是人类和AI最大的门槛。
在人类与AI的对话中,人类的表现是将感性转化成理性表达,这种理性表达是为了尽可能的让AI理解人类想表达的是什么。
比如在2024年3月完成了新一级进化的 Claude 3 ,其开发团队甚至详细的分门别类的列出了有效的Prompt library 提示库,其目的就是指引使用者用尽可能少的文本更完整的表达自己的意愿。
当然,这并不能下结论凭借文本支持的长度就能衡量大模型的能力,但可以支持这种主张:无损理解长文本是人类与AI交流的“基建”。
在Kimi发布新一轮200万文本支持内测前,市面上各种AI的大文本试用,并不尽如人意:
Claude对文件要求限制在10MB以下。
Claude对文件要求限制在10MB
Kimi当时也对这超出了它能力范围15%的文本长度的文档表示“无能为力”。
Kimi此前限定在20万字文本
Kimi表演的“一口气吃两百万”
而Kimi在2024年3月更新支持200万字长文本的基础能力,会成为人类与AI交互的新的守门员,这个量级的文本将决定以后AI理解能力出现了一个新的等级。
人类与AI之间的对话将逐渐去除“污染”、“幻觉”以及“牛头不对马嘴”。
此前,Kimi单次只支持50个文件上传,此次开放的内测放开了这个限制,仅在实用性上来讲,Kimi一口气能输入200万字文本内容,具体表达为单次处理更大规模的阅读、总结,使用效率大大的挺高。
比如工作上遇到了300多人投的面试简历,此时根据不同的需求快速的筛选(用人者和求职者之间的互相尊重)。
两分钟阅读完平时五个小时才能看完的简历
为什么现在推荐使用Kimi
以为这是软文么?以为这是广告么?
大家用AI有什么赛道要做么,这里有个帮你把四大名著整本整本录入并写出读后感的Kimi仔,还有什么不满足的?
日报、周报、年报不就是一堆堆的文件和邮件的总结。
几万字的论文,跳过推导和数据证明,我们想引用的不就是里面各个环节的结论么。Kimi已经可以满足这种充斥在目前社会各个角落的快餐需求了。
其实上面这些话怎么吹嘘也敌不过最重要的结论:
更多内容,点击下方关注:
未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!
公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。
未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!
公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。
微信扫码关注该文公众号作者