Bendi新闻
>
书生・浦语 2.0(InternLM2)大语言模型正式开源

书生・浦语 2.0(InternLM2)大语言模型正式开源

4月前
1 月 17 日,书生・浦语 2.0(InternLM2)发布会暨书生・浦源大模型挑战赛启动仪式在上海举行。上海人工智能实验室、商汤科技联合香港中文大学和复旦大学共同发布了新一代大语言模型书生・浦语 2.0(InternLM2)
开源地址
  • Github:https://github.com/InternLM/InternLM

  • HuggingFace:https://huggingface.co/internlm

  • ModelScope:https://modelscope.cn/organization/Shanghai_AI_Laboratory

这个模型在 2.6 万亿 token 的高质量语料基础上进行训练,包含 7B 和 20B 两种参数规格以及基座、对话等版本,以满足不同复杂应用场景的需求。上海 AI 实验室秉持“以高质量开源赋能创新”的理念,为 InternLM2 提供免费商用授权。
InternLM2 的核心理念在于回归语言建模的本质,通过提高语料质量和信息密度,提升模型基座的语言建模能力。它在数理、代码、对话、创作等方面都有显著进步,合性能达到同量级开源模型的领先水平。它支持 200K token 的上下文,一次性接收并处理约 30 万汉字的输入内容,准确提取关键信息,实现长文本中的精准筛选。
在评测中,研究人员定义了语言、知识、推理、数学、代码、考试等六个能力维度,并在 55 个主流评测集上对多个同量级模型进行了综合评测。结果显示,InternLM2 的轻量级(7B)及中量级(20B)版本在同量级模型中表现优异。与初代 InternLM 相比,InternLM2 在各项能力上都有显著提升,特别是在推理、数学和代码方面。


往期推荐



洗衣机日耗流量3.6GB,或被入侵后用于“挖矿”?

2023年IT界的「奇葩」新闻:盗用游戏源码获利1.5亿;视频软件“白嫖”带宽;程序员篡改ETC余额......

Linux内核被冬季风暴 “封印”



这里最新源资讯、软件更新、技术干货等内容

点这里 ↓↓↓ 记得 关注✔ 标星⭐ 哦



微信扫码关注该文公众号作者

来源:OSC开源社区

相关新闻

国产开源模型标杆大升级,重点能力比肩ChatGPT!书生·浦语2.0发布,支持免费商用200亿「书生·浦语2.0」正式开源!数推性能比肩ChatGPT,200K超长上下文完美召回马斯克宣布正式开源大语言模型Grok;人体避免多个精子使一个卵子受精的机制揭示 | 环球科学要闻书生·浦语大模型实战营第二期正式启动,内容全面升级!腾讯 PCG 自研高性能大语言模型推理引擎「一念 LLM」正式开源腾讯PCG自研高性能大语言模型推理引擎「一念LLM」正式开源0门槛免费商用!孟子3-13B大模型正式开源,万亿token数据训练AlphaFold 3不开源,统一生物语言大模型阿里云先开了!AI早知道|Kimi智能助手升级;Meta开源推出新一代大语言模型Llama3史上最强开源大模型 Llama 3正式发布。。。AI早知道|马斯克Grok大模型开源;荣耀正式发布首款AI PC;苹果谷歌和OpenAI商谈iPhone大模型使用字节发布机器人领域首个开源视觉-语言操作大模型,激发开源VLMs更大潜能ICLR 2024 | 机器人领域首个开源视觉-语言操作大模型!RoboFlamingo框架激发开源VLMs更大潜能机器人领域首个开源视觉-语言操作大模型,RoboFlamingo框架激发开源VLMs更大潜能央企第一家:中国电信开源星辰语义大模型,共享超1T 高质基础数据天工2.0 MoE大模型发布;苹果开源自动修图神器MGIE;香港公司被AI换脸骗走2亿港元丨AIGC大事日报许家印组织造假被罚4700万;马斯克开源大模型Grok-1;侯毅正式卸任盒马CEO;英伟达推出最强AI芯片...马斯克正式开源 Grok-1,成为全球最大的开源大模型美国公布法案准备限制开源大模型对华出口腾讯混元文生图大模型开源:Sora 同架构,更懂中文,已支持 16s 视频生成一个悄然崛起的国产开源大模型!零一万物Yi-1.5来了,国产开源大模型排行榜再次刷新字节开源大模型量化新思路,2-bit量化模型精度齐平fp16通义千问 2.5 发布,成为中国最强开源大模型
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。