一个悄然崛起的国产开源大模型!
大家好,我是 Jack~
自从 ChatGPT 发布以来,全球大模型技术蓬勃发展,各大厂商竞相推出了自家的 AI 大模型。
国内的开发者们或许没有想到,有朝一日,咱自家人开发的 AI 大模型,竟然让其他国家的网友感慨万千。
这个让日本和韩国网友感慨万千的「别人家的孩子」,就是阿里云的通义千问(英文名为 Qwen)。
而就在 5 月 9 日,阿里云正式发布了通义 2.5 大模型,能力升级、性能卓越,在 OpenCompass 开源基座大模型排行榜中,中文性能全面赶超 GPT-4 Turbo。
免费使用地址:
https://tongyi.aliyun.com/qianwen
同时,阿里云也正式宣布了“通义千问App”更名为“通义App”,为所有用户提供免费服务。
在 2.5 版本中,模型相比上一版本在各个方面都有显著提升:
理解力:提升9%; 逻辑推理:提升16%; 指令执行:提升19%; 编程能力:提升10%。
可以说,在中文处理能力上,通义绝对是保持在行业的领先地位上。
而在 4 月 26 日,通义推出的拥有 1100 亿参数的开源模型 Qwen1.5-110B,更是在多个基准测试中超过了 Meta 的 Llama-3-70B 模型,直接把国外网友看傻了。
在 HuggingFace 的开源大模型排行榜 Open LLM Leaderboard 上,Qwen1.5-110B 荣登榜首。
模型发布不到 24 小时,ollama 便火速上线了对 110B 的支持。这意味着,你现在就可以通过 ollama 将 Qwen1.5-110B 部署到自己的电脑上运行。
阿里云 CTO 周靖人表示:
大模型这么多家,大家都说的是同样的故事,但最后比拼的就是能力差异。包括最后比拼的是怎么融合生态,尤其是开发者的生态。
怎么把它落地运用起来,才是最大的差异。
5 月 13 日,OpenAI 发布会上官宣的 GPT-4o 也印证了一点,OpenAI 也开始做落地应用,打造了拥有多模态实时交互能力的语音助理。
通义也在发力多模态上的应用,像聚焦音视频领域的通义听悟、聚焦长文档的通义智稳、聚焦代码领域的通义灵码等,提供了多场景、多模态的模型能力。
除了落地应用,通义也早早布局开源,去年 8 月,通义宣布加入开源行列,并迅速推出了多款开源模型。目前,通义开源模型的下载量已经超过 700 万。
除了常规的我们知道的不同参数量的基准大模型,通义还开源了视觉理解模型 Qwen-VL、音频理解模型 Qwen-Audio、代码模型 CodeQwen1.5-7B、混合专家模型 Qwen1.5-MoE 等。
这些模型也是广受好评:
自从大模型爆火以来,弱智吧就成了检测大模型能力的一项重要指标,我们来检测下通义的实战能力:
先输入一个脑筋急转:我今天有 3 个苹果,昨天吃了一个。现在有几个苹果?
这个问题如果不仔细想,很容给出错误答案 2,但通义不但给出了准确的答案,还分析了原因。
再问问弱智吧问题:
接下来考察下文本创作能力:
像读文档、写代码,这些常见的能力我们就不看了,我们玩玩视觉理解能力。
生活中遇到问题了,拍张照片上传,它也能给出一些意见。
大模型也给出了请及时就医的指导意见。
还能根据 emoji 表情猜成语:
我们加大难度,给它一个经典的验证码图:
说实话,这理解能力真的很强了!!
以上测试,只是通义众多功能中的冰山一角,感兴趣的读者可以前去官方网站一试。
通义 2.5 大模型进步还是挺大的!
好了,今天的内容就是这么多。
我是 Jack,我们下期见!
微信扫码关注该文公众号作者