微软狂屯GPU,目标180万颗
👆如果您希望可以时常见面,欢迎标星🌟收藏哦~
来源:内容来自半导体行业观察(ID:icbank)综合,谢谢。
微软试图在2024年底前囤积180万颗的人工智能(AI)芯片,显现该科技巨擘强化硬体实力以支援先进AI技术的野心。绘图芯片大厂英伟达(NVIDIA)先前则宣布,该公司将与微软携手打造一台大型电脑,用于处理云端繁忙的AI运算工作。
美国新闻网站《商业内幕》(Business Insider)取得内部文件显示,微软打算将自家图形处理器(GPU)数量增加2倍至180万颗,主要从英伟达手中购买。拥有更多芯片有助于微软推出效率更高、速度更快与更便宜的AI产品。
该文件并未详述这些芯片未来可能的应用方式,但取得大量芯片意味着:微软可以在自家产品进行广泛部署,范围涵盖云端服务与消费电子产品等。
消息人士透露,微软计画在2027年前砸1,000亿美元投资GPU与资料中心,以强化现有相关基建设施。
微软大量囤积AI芯片,凸显该公司努力在AI领域维持竞争优势,而获得强大运算能力是创新的关键所在。
但这也可能对于微软带来投资成本与技术过时风险,同时遭致滥用市场主导地位、运算能力过度集中与违反竞争行为等批评声音。
另一方面,英伟达日前表示,他们与微软合作打造的AI电脑将在微软Azure云端平台运作,并采用英伟达数万颗GPU,包括后者最强大的H100与A100芯片在内。
英伟达婉拒透露此笔合作案的合约价值。但根据业界人士推估,每颗A100芯片价格约介于1万~1.2万美元,至于H100价格远高于此水平。
英伟达超规模与高效能运算部门总经理巴克(Ian Buck)表示:「我们正处于AI进入企业应用的关键拐点,客户可以使用这些服务为业务部署AI,此一理想正在变成现实。」
除了出售芯片外,英伟达也将与微软合作开发AI模型。英伟达表示,他们将成为微软AI云端电脑客户,同时以此开发AI应用程式并提供服务给客户。
谁拥有最多的H100?第一名遥遥领先,第二名有争议!
特斯拉和埃隆·马斯克专注于人工智能的企业 xAI 共同储备了大量 NVIDIA H100 GPU,前者致力于永久破解 5 级自动驾驶难题,而后者则试图实现马斯克“最大程度”的愿景——寻求真相的人工智能。
X 帐户“The Technology Brother”最近发布消息称,马克·扎克伯格的 Meta 现已积累了世界上最大的 H100 GPU 储备之一,数量约为 35 万个。然而,马斯克对该表中特斯拉和 xAI 的排名持例外态度,他指出,“如果测量正确,特斯拉将排名第二,X/xAI 将排名第三。”
假设其他条件保持不变,这意味着特斯拉现在拥有 30,000 至 350,000 台 NVIDIA H100 GPU。另一方面,xAI 目前可能拥有 26,000 至 30,000 块 NVIDIA 专注于 AI 的显卡。
早在 1 月份,埃隆·马斯克 (Elon Musk) 就确认对 Tesla Dojo 超级计算机进行5 亿美元的新投资(相当于约 10,000 个 H100 GPU)时宣布,这家电动汽车巨头“今年在 NVIDIA 硬件上的支出将超过这一数字”,因为“在人工智能领域具有竞争力”“目前每年至少有数十亿美元”。
请记住,xAI 在 2023 年购买了大约10,000 块NVIDIA GPU,马斯克从 DeepMind、OpenAI、谷歌研究院、微软研究院、特斯拉和多伦多大学聘请了人才,从头开始打造他的人工智能企业。不过,可以合理地推断,这些购买很可能与 A100 GPU 有关。从那时起,从马斯克最新的 X 帖子中可以推断,xAI 似乎也积累了大量 H100 GPU。
当然,考虑到人工智能领域的创新步伐,这些 H100 GPU 很快就会过时。早在三月份,NVIDIA 就发布了GB200 Grace Blackwell Superchip,将一个基于 Arms 的 Grace CPU 与两个 Blackwell B100 GPU 结合在一起。该系统可以部署具有27 万亿个参数的 AI 模型,预计在执行聊天机器人提供答案等任务时速度将提高30 倍。
卖爆了的H100,终于冷下来了?
今年二月,分析公司 UBS 在给客户的一份新报告中表示,用于人工智能应用的 Nvidia广受欢迎的 H100 80GB GPU的交付时间(等待时间) 已从 8-11 个月缩短 至仅 3-4 个月。该公司表示,这种转变表明近期增长可能达到峰值,但也可能预示着英伟达未来增长前景面临麻烦。不过,瑞银仍上调了对英伟达的展望,将盈利预测和目标价上调至850美元。
交货时间的缩短是一把双刃剑。一方面,这表明英伟达的生产合作伙伴台积电(或其芯片封装分包商)正在扩大其CoWoS封装产能(这限制了H100和其他用于AI应用的先进处理器的供应),这意味着更好的供应和更快的速度履行订单。这种效率可能会带来短期收入和利润的增长,因为公司可以在更短的时间内运送更多产品。另一方面,随着交货时间接近零,英伟达将从根据积压订单和新订单发货转变为仅根据新订单发货,这可能会导致收入下降。
台积电表示,将在 2023 年底之前扩大 CoWoS 产能,并在 2024 年底之前将产能在 2023 年中期的基础上翻一番。也许台积电或其 OSAT 合作伙伴之一的 CoWoS 产能扩张进展速度快于预期,导致 H100 交货时间缩短.
另一方面, 由于美国的限制,现在 Nvidia 无法向中国运送功能齐全的 H100,据报道导致中国的需求下降,它可能只是有大量的“备用”H100 芯片可以运送到其他地方。尽管中国占英伟达收入的很大一部分,但尚不清楚出货量的减少是否会导致 H100 的交货时间从 8-11 个月缩短至仅 3-4 个月。
据The Information 报道,由于稀缺性下降以及维护未使用库存的成本高昂,一些公司正在转售 H100 GPU 或减少订单。这标志着与去年相比的重大转变,当时获得 Nvidia 的 Hopper GPU 是一项重大挑战。据The Information 报道,尽管芯片可用性有所提高,交货时间也显着缩短,但人工智能芯片的需求仍然超过供应,特别是对于那些培训自己的LLM(例如 OpenAI)的人来说 。
AI 处理器短缺的缓解部分归因于 AWS 等云服务提供商 (CSP) 使得租用 Nvidia 的 H100 GPU 变得更加容易。例如,AWS 推出了一项新服务,允许客户安排较短期限的 GPU 租赁,解决了以前的芯片可用性和位置问题。报告称,这导致人工智能芯片的需求和等待时间减少。
尽管 H100 可用性总体有所改善,但开发自己LLM的公司仍然面临供应限制,很大程度上是因为他们需要数以万计、数十万个 GPU。访问训练LLM所需的大型 GPU 集群仍然是一个挑战,一些公司面临几个月的延迟才能收到所需的处理器或容量。因此,Nvidia的H100和其他处理器的价格并未下降,该公司继续享有高利润率。
市场目前预计 Nvidia 将持续增长,预计到 2026 年 1 月收入不会出现季度环比下降。然而,交货时间的迅速缩短表明这种增长可能会更快地冷却下来,可能在未来两到三年内宿舍。分析师指出,这种情况并未反映在该股目前的估值中,该估值假设增长不间断。
英伟达人工智能处理器可用性的增加也导致了买家行为的转变。公司在购买或租赁时变得更加注重价格和选择性,寻找更小的 GPU 集群并关注其业务的经济可行性。
人工智能行业的增长不再像去年那样受到芯片供应限制的阻碍。Nvidia 处理器的替代品(例如 AMD 或 AWS 的处理器)正在获得性能和软件支持。再加上人工智能处理器上的支出更加谨慎,可能会导致市场更加平衡。
与此同时,对人工智能芯片的需求仍然强劲,随着LLM变得越来越大,需要更高的计算性能,这就是为什么据报道 OpenAI 的 Sam Altman 试图筹集大量资金来建造更多工厂来生产人工智能处理器的原因。
尽管英伟达的增长可能会放缓,但值得注意的是,整体人工智能能力将继续扩大。Nvidia 的出货量将有助于 GPU 安装基础的不断增长,而其他竞争对手也将推动这一增长。因此,尽管英伟达的连续增长可能面临挑战,但更广泛的人工智能行业将继续前进。
END
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3740期内容,欢迎关注。
推荐阅读
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦
微信扫码关注该文公众号作者