Bendi新闻
>
OpenAI把微软电网搞崩!GPT-6被曝25年发布,训练刷爆10万张H100

OpenAI把微软电网搞崩!GPT-6被曝25年发布,训练刷爆10万张H100



  新智元报道  

编辑:编辑部
【新智元导读】GPT-5还未发布,GPT-6已经在路上了?微软工程师曝出,为GPT-6搭建10万个H100训练集群,整个电网却被搞崩。通往AGI大关,还需要破解电力难题。

GPT-6也被电力卡脖子了——部署十万个H100时,整个电网发生了崩溃!

就在刚刚,微软工程师爆料,10万个H100基建正在紧锣密鼓地建设中,目的就是训练GPT-6。

微软工程师吐槽说,团队在部署跨区域GPU间的infiniband级别链接时遇到了困难。

Corbitt:为何不考虑直接将所有设备部署在同一个地区呢?


微软工程师:这确实是我们最初的方案。但问题是,一旦我们在同一个州部署超过100,000个H100 GPU,电网就会因无法负荷而崩溃。

这是创业者Kyle Corbitt在社交媒体上,分享自己与一位微软工程师关于GPT-6训练集群项目的对话

没想到,GPT-5还没发,微软就已悄悄为OpenAI开始训练GPT-6了。

同在今天,一张「OpenAI内部时间线」图片在网上疯转。

图中清晰标注出:OpenAI早在2022年8月-10月之间开始了GPT-5(代号Arrakis)的训练,2023年4月GPT-4.5(代号Gobi)在训练中。

并且图中显示,GPT-6的测试,预计早在去年9月就开始了!

同时,关于GPT-5(Arrakis)的一个爆料帖,也随之浮出水面。

太长不看版


贴中爆出许多内幕消息。

比如,GPT-4.5因为能力不够,干脆被跳过,所以今年OpenAI会直接发GPT-5。

另外还有若干未经证实的消息(从上图中也可以看出),关于OpenAI手中握着的一大把模型——

比如,Arrakis/GPT-5在GPT-4不久后训练了3个月,于22年10月结束;在GPT-5之后,GPT-4.5于23年4月完成训练。

最劲爆的消息当然就是,现在GPT-6或许已经在训练中了。

但是,GPT-5并不是AGI,因为无法解决「量子引力」问题。同理,GPT-6也不是AGI。

接下来,让我们一一盘点下,帖子中都有哪些信息点。

最接近AGI的模型,与人类专家不相上下


去年8月,FeltSteam最先曝出OpenAI内部正在进行一个Arrakis多模态模型的项目,远超GPT-4,非常接近AGI。

Arrakis项目被首次提及,是名叫FeltSteam的网友最先在Reddit一个评论区中爆料称,「Arrakis和Gobi都很酷」。

并且,他在r/singularity板块中另一个问题下, 介绍了Arrakis的一些能力。

他提到,「这是一个无所不能的模型,可以输入文本、图像、音频和视频的任何组合」。

具体来说,Arrakis更多的细节包括:

- 多模态模型
- 性能远超GPT-4
- 接近AGI
- 幻觉发生率明显低于GPT-4
- Altman正试图将Arrakis作为一种工具来推销,尽管它是有感情的
- 推理成本略低于GPT-4
- 非常优秀的自主智能体

- 训练一般数据是合成的

与此同时,Jimmy Apples在社交媒体上曝出了OpenAI内部代号Gobi的项目——大规模多模态模型。

除了以上两个项目,一个代号名为「Sunshine」的项目逐渐浮出水面。

OpenAI这些秘密进行的项目,一时间引来许多网友的猜测和讨论。

随后,FeltSteam又爆出了更多的细节,Arrakis据称有125万亿参数,大约是GPT-4的100倍,并在2022年10月完成训练。

值得一提的是,Arrakis不是通过计算资源实现的,而是通过提高计算效率实现的。

目前,OpenAI内部也在使用Arrakis进行研究,不过整体员工水平肯定优于Arrakis。另外,与GPT-5相比,Gobi更接近GPT-4.5。

到了10月,FeltSteam再一次表示,一个比GPT-4大100倍的模型即将问世。

GPT-5将在2024年年中,或在2024年第三季度发布。

最近BussinessInsider的报道称,知情人士透露,GPT-5或将在今年夏天发布。与FeltSteam预测的时间几乎吻合。

而Arrakis是GPT-5一个更强大的候选者,在多个领域具备人类水平的专业知识能力。

GPT-5不是AGI


不过,Arrakis并不符合Altman对AGI的定义,即解决「量子引力」的问题。

量子引力,又称量子重力,是描述对重力场进行量子化的理论,属于万有理论之一隅;主要尝试结合广义相对论与量子力学,为当前物理学尚未解决的问题

但正如之前所说,Arrakis模型还是能够达到人类专家水平。

GPT-5和GPT-6都不是AGI

FeltSteam表示,传说中的AGI,是Arrakis以外的东西。

但是,为什么我们能在这么短的时间里,训练出一个125万亿参数的模型呢?

理论上来说,如果训一个1.75万亿参数模型需要4-5个月,那么如果训练一个大百倍的模型,应该需要几十年。

(目前已知,GPT-4在A100集群上训了100天,但是在训练之后,OpenAI又花了几个月时间对它微调和对齐。)

显然,要训125万亿参数的模型,不仅要投入原始计算资源,还要显著提高计算效率。

用90%合成数据训练


另一个比较值得关注的信息是,据称Arrakis去年训练的数据集中约90%是合成数据。

此前,外媒报道称:

Ilya Sutskever的突破让OpenAI克服了在获取高质量数据以训练新模型方面的限制,而这正是开发下一代模型的主要障碍。这项研究涉及使用计算机生成的数据,而不是真实世界的数据,如从互联网上提取的文本或图像来训练新模型。

FeltSteam认为,OpenAI正遇到了扩展(scaling)的难题,因为仅仅扩展注意力和模型参数是远远不够的。

目前,GPT-4的训练已经穷尽了整个互联网的数据,还需要进行强化学习,甚至更多的数据。

另外,Arrakis还是一个非常出色的自主智能体。

所有关于OpenAI项目信息汇总目录一览表。

十万个H100训GPT-6,被电力卡脖子


就在以上的爆料帖中,有一种说法是,GPT-6将于2025年发布。

而就在爆料微软工程师对话的帖子中,也再次证实:微软正用10万个H100来帮OpenAI训练GPT-6!

有网友算了一下,如果十万个H100同时开启,功耗将达到70兆瓦,电网肯定撑不住。

而熟悉电力行业的网友说,一般大型电厂的输出功率将达到2000兆瓦,100兆瓦的负载其实并不大。但是突然在电网中增加100兆瓦的负载肯定会让电网系统出问题。

核能也许是唯一的办法了,电力短缺将直接限制未来GPU的发展。

此前,ChatGPT每天耗电已超50万千瓦时,登上了热搜,足见AI「吃电」非常凶猛。

根据波士顿咨询集团的分析,到2030年,数据中心的用电量预计将增加两倍,相当于为大约4000万美国家庭供电所需的电力量

没想到,马斯克预言的由AI导致的电力短缺,这么快就卡住AGI的脖子了。

马斯克:「现在AI对算力的需求差不多每半年就会增加10倍,马上会超过宇宙的质量。芯片短缺缓解后,马上就会出现电力短缺。如果电网输出100-300千伏的电压,然后必须一路降压至6伏,未来会出现变压器短缺」。

包括Sam Altman在内的越来越多的AI行业大佬表示,AI的第一性原理,最重要的部分就是能源和智能的转化率的问题。

而人工智能是能源的无底洞,AI未来将会被能源卡脖子。

因为Transformer本质上不是一个能效很高的算法,所以在未来,能源将会是困扰AI发展的一个大问题。

对此,网友们表示,长期看好中国基建。

而在Altman看来,满足AI飙升能源需求的最有效方法,就是核聚变。

为此,他本人就在核聚变上投资了真金白银的数亿美元。

没有突破,就没有办法到达那里,我们需要核聚变。

然而,真要达成核聚变,却没那么快。

英国曼彻斯特大学核聚变研究员Aneeqa Khan表示,“在地球上重建太阳中心的条件是一个巨大的挑战”,可能要到本世纪下半叶才能准备就绪。

核聚变已经为时已晚,无法应对气候危机。在短期内,我们可利用的是现有的低碳技术,比如裂变和可再生能源」。

国际能源署(IEA)最近的一项分析计算出,数据中心、某货和人工智能的电力消耗在未来两年内可能会翻一番。2022年,它们约占全球电力需求的2%。同时AI的需求将呈指数级增长,在2023年至2026年间至少增长10倍

此外,除了电力的限制之外,网友还继续脑洞大开,认为散热也将成为一个问题。🐶

10万块H100还会带来散热和空间堆叠的问题,其实最近3年这些问题一直都存在,未来还会越来越严重。

网友进一步调侃到,未来加拿大会成为AI大国,因为他们有取之不尽的寒冷且干燥的空气!这些在AI时代将会是宝贵的自然资源。


参考资料:
https://x.com/ai_for_success/status/1772701538705617167?s=20
https://twitter.com/ai_for_success/status/1772492362872168656?t=VDn6nXceeqOAuRZYi58vgA&s=19




微信扫码关注该文公众号作者

来源:新智元

相关新闻

马斯克豪掷40亿购10万张H100训Grok 3!自曝Grok 2下月上线,巨额博弈剑指OpenAIAI集体失智!9.11比9.9大?微软回应全球死机蓝屏事件:影响850万设备;OpenAI发布GPT-4o mini | Q资讯英伟达又涨了!“中国特供”B20芯片被曝,马斯克豪掷10万块H100训Grok,算力是GPT-4的四倍!马斯克烧几十亿美元造最大超算中心,10万块H100训练Grok追赶GPT-4oGPT-5被5万张H100卡脖子!Altman急筹数十亿美元,欲取代英伟达建起AI芯片帝国小扎砸数百亿美元猛攻开源AGI!狂掷60万块H100,爆50倍GPT-4算力仅用19天,马斯克建成全球最强“超算工厂”!10万块H100 GPU上线,Grok 3预计年底发布AI争霸战开启!OpenAI急建10万块GB200超算,马斯克10万块H100月末开训AI爆料人遭全网封禁!OpenAI等25个机构祭大招,一眼辨别AI机器人逼近GPT-4的新模型发布!「欧洲版OpenAI 」联手微软,却被质疑违背初心“感觉 GPT Store 被放弃了!” 发布才 2 个月就被 OpenAI 搞成了烂尾项目?OpenAI劲敌出手!Claude 3正式发布,超越GPT-4,一口气读15万单词微软曝光「AIPC」笔记本,电脑厂商跟进;GPT-4o需求高,OpenAI收入暴涨;裁员后,理想推迟纯电SUV发布|极客早知道马斯克19天建成世界最强AI集群!10万块H100「液冷怪兽」即将觉醒预计容纳 35 万颗 H100!训练 Llama 大模型的基础设施是如何搭建的OpenAI突破性发布GPT-4o!电影《她》真的来了|亮马桥小纪严选OpenAI深夜发布GPT-4o!跟所有公司、所有企业主都有关!OpenAI 突然发布 GPT-4o mini !更快更便宜,人人免费可用,GPT-3.5 成为历史GPT-5,被5万张H100卡脖子OpenAI 6个月赚34亿美元!年化收入直接翻倍,却遭CTO揭底:ChatGPT与免费模型差距不大小扎宣布进军AGI!Meta正在训练Llama 3,目标是60万块H100!模型仍会开源OpenAI被曝重组计划!与苹果达成关键协议,微软谷歌哭晕惊掉下巴:GPT-4o现场爆改代码看图导航!OpenAI曝光LLM路线图,GPT Next年底发深度|曝英伟达 AI 芯片遇重大设计缺陷!微软 OpenAI 等巨头订单交付延迟至少三个月,全球尖端模型与应用发布都将受影响
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。