Bendi新闻
>
4个令人惊艳的开源项目,诞生了!

4个令人惊艳的开源项目,诞生了!

大家好,今天继续聊聊科技圈发生的那些事。

一、LitGPT

LitGPT 是一款用于预训练、微调和部署 LLM 的命令行工具。

我们能看到主页有这样一句话:

For training the world's largest, most powerful open-source LLMs. (用于训练世界上最大、最强的开源 LLM。)

一看到这种最大、最强之类的词,我们难免心生疑惑。那么 LitGPT 是怎么做的呢?

LitGPT 重新实现了所有模型架构和训练配方:

  1. 去除所有抽象层,采用单一文件实现。
  2. 保证符合 Apache 2.0 标准,使企业使用不受任何限制。
  3. 优化每个模型的每个细节,以获得尽可能快的性能,从而降低成本和训练速度。

除此之外,LitGPT 还使用了很多先进的技术。比如用 LoRAAdapter 等进行参数微调,用 Flash Attention 降低显存读写,提高运行速度等,这都是优势所在。

另外,对于自行部署 LLM ,LitGPT 提供了 20 多种现成的 LLM 可供使用,其中不乏有许多我们耳熟能详的模型,比如 Llama 2。你可以使用这些模型配合自己的数据进行微调、预训练等。

项目的部署也很简单,用 pip 直接安装即可。剩下的内容,比如使用、预训练等操作,作者团队在项目主页也已经给出了完整的教学。

项目已经开源,想体验的小伙伴可以自行关注一下。

项目地址:

https://github.com/Lightning-AI/litgpt

二、Parler-TTS

Huggingface 最新推出的 TTS 模型,支持多种语言,支持个性定制化,使用非常简单。

对于先前常见的 TTS 模型,我们通常会选择语言、说话风格、语速等参数。但是 Parler - TTS 是没有这些可调参数的。那么,我们要如何定制我们想要生成的声音信息呢?

我们来看一下 Parler - TTS 的 prompt 实例,其中包含两个部分:

  • Input Text 输入文本
  • Description 描述

在这个 Description 部分,我们可以通过文本输入,提供我们想要的语音风格描述,比如声音的性别,语速快慢,音调高低,甚至是背景音的嘈杂程度和说话的清晰度。

另外,Parler - TTS 是完全开源的,包括权重信息、数据集等等。如果有谁想要在它的基础上进行一些“私人订制”或是微调,都是完全能实现的。

对于Parler - TTS 的本地安装,有多简单呢?一行代码!

pip install git+https://github.com/huggingface/parler-tts.git

说了这么多,我们回到这段话的开头,它的作者可是 Huggingface ,既然是 Huggingface 自己做的,想必我们一定能在线体验了吧?

答案是肯定的,不过这玩意目前还不支持中文。在此,我们就可以想象一段在未来用 Parler - TTS 生成的主播音:上链接

在线体验地址:

https://huggingface.co/spaces/parler-tts/parler_tts_mini

项目地址:

https://github.com/huggingface/parler-tts

三、InternLM-XComposer2

InternLM-XComposer2 ,一款图文多模态大模型,它还有个超帅的中文名字——浦语·灵笔2

InternLM-XComposer2 有两块大功能,一个是创建图文并茂的文章,另一个是多模态对话问答。

InternLM-XComposer2 可以理解多种形式的图文指令输入,包括大纲、文章细节要求、参考图片等,生成图文并茂的文章,例如项目团队展示的 demo,生成了一篇介绍熊猫的文章。

InternLM-XComposer2 具有海量图文知识,可以准确的回复各种图文问答难题。比如你可以在上传数学题的同时,把题目的参考图像一起发给 InternLM-XComposer2,就不用让它根据描述自行想象了。你也可以通过重复惩罚等参数调节,进行对话内容的微调。

InternLM-XComposer2 的性能表现也非常不错。在13项多模态评测中,InternLM-XComposer2 大幅领先同量级的多模态模型,在其中6项评测中超过 GPT-4V 和 Gemini Pro。

作者团队也给出了本地部署的安装教程,包括环境的配置,使用案例指导,多 GPU 条件下的脚本,4bit 模型的依赖等。我们也可以在线体验到这款优秀的模型。

在线体验地址:

https://huggingface.co/spaces/Willow123/InternLM-XComposer

对于这个项目,作者团队还在不断更新,我们可以期待一下后续的发展。

项目地址:

https://github.com/InternLM/InternLM-XComposer

四、30 Days Of Python

30 天,学会 Python !

一进项目的主页,扑面而来的就是令人倍感舒适、整洁有序的文件夹。

30 Days Of Python 这个项目,主要是一个 Python 教学向的大目录。为什么在此作出推荐分享呢?因为它实在是太精细了。

我们来简单看看文档部分:

在 01 章的 Introduction 中,直接从如何安装 Python 环境开始,再到简单的语法教学,如何看报错信息,甚至教你如何安装使用 VS Code !前人栽树,后人乘凉,确实是少走了很多弯路。至少对于一个从来没有接触过 Python ,甚至是编程的小白来说,配置编程环境也算是一道坎了。

在每一个章节的最后,作者团队也留下了练习,可以供初学者们加以巩固。有没有一种老师留课后作业的感觉?

我们再往后看看,往后的几章涉及到了变量、函数、字符串等基础的知识,越往后,学习到的内容就越深、越全面。比如,到了 Day 21 ,接触到了类和对象;更后面的 Day 25 ,使用 pandas 库处理数据,建立 Dataframe 等;尾声的 Day 28 、 Day 29,涉及 API 的使用和建立。

如果真的能抽出一些时间,完整的跟随这个项目进行为期一个月的学习,我相信初学者一定会受益匪浅,提升一大截编程水平。而“老鸟”们也一定会在这样一份干练的学习计划中,查缺补漏,加深记忆,同样有所收获。

再说回来,这份项目是全英文的,无论是对于在校生还是在职者,会不会也能顺便提升一点英文水平呢?一试便知,感兴趣的小伙伴可以点进项目主页看看。

项目地址:

https://github.com/Asabeneh/30-Days-Of-Python

好了,本期的内容就是这么多,我们下期再见!

·················END·················

微信扫码关注该文公众号作者

来源:Jack Cui

相关新闻

又火一个惊艳的开源项目,诞生了!4个令人兴奋的爆火AI项目,已开源!又火一个惊艳的AI项目,已开源!3个令人兴奋的AI项目,已开源!微信聊天记录导出的开源项目,火了!《浪姐5》开播,36位姐姐的PPT太惊艳了!首个基于Mamba的MLLM来了!模型权重、训练代码等已全部开源再次惊艳全球,开年最炸裂的暗黑国风动画来了!P70系列有3或4款新品;国内首个开源千亿参数MoE大模型来了,对标马斯克的Grok……GPT-4级模型Grok开源可商用!卷底层大模型的公司危了惊艳了!国宝的“秘密”,都在这里!这个「AI 写真」开源项目火了! GitHub 一周暴涨四千星,Yann LeCun 亲自转发微软秒删堪比 GPT-4 的开源大模型!研发总部还被爆在北京?官方:我们只是忘了测试微软秒删堪比GPT-4的开源大模型!研发总部还被爆在北京?官方:我们只是忘了测试比 Python 快 9 万倍的 Mojo 终于开源了!刚上线 star 已超过 1.7 万媲美GPT-4的开源模型泄露!Mistral老板刚刚证实:正式版本还会更强V领、立领和圆领随时切换的宝藏针织衫,修饰脖颈的效果实在令人惊艳!性能直逼 GPT-4!最强大的免费开源模型出世 | 极客时间苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源讯飞星火V3.5整体接近GPT-4 Turbo!首个13B开源大模型发布,深度适配国产算力史上最强!全球首个“开源GPT-4”出世!全球首个「开源GPT-4」出世!Llama 3震撼发布,Meta AI免登录可用开源大模型火了!(附99个大模型微调模型/数据/工具)!别等OpenAI了,全球首个类Sora抢先开源!所有训练细节/模型权重全公开,成本仅1万美元
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。