扎克伯格警告:GPU不再缺货,功耗成为大问题
👆如果您希望可以时常见面,欢迎标星🌟收藏哦~
来源:内容来自半导体行业观察(ID:icbank)编译自tomshardware,谢谢。
Facebook 联合创始人兼首席执行官马克·扎克伯格 (Mark Zuckerberg) 认为,能源限制将成为 IT 行业的下一个瓶颈。他在最近的一次采访中表示,他认为长期的GPU荒已经基本结束,人工智能的增长和发展短期内不会受到资本限制的限制。相反,能源问题将成为下一个主要的关键点。(原文:AI growth and development won’t be reined in by capital constraints in the near term. Instead, energy issues are going to become the next major pinch point.)
扎克伯格告诉采访者 Dwarkesh Patel,随着 GPU 缺货的结束,企业将忍不住“投入大量资金来建设这些东西”,比如数据中心。然而,扎克伯格认为,在资本成为问题之前,工业将面临能源限制。
这位Facebook 老板观察到,许多新数据中心的能耗为 50兆 至 100 兆瓦,其中特别大的数据中心“可能达到 150 兆瓦”,这为他的主张提供了一些支持。数据中心开始需要 300 或 500 兆瓦,甚至达到千兆瓦似乎只是时间问题。
扎克伯格反问道,指数级的人工智能训练和能量曲线会持续多久。这个问题使能源生产成为焦点。Facebook 首席执行官强调,能源生产可能很快就值得投资。
建造一个新的发电站并不是一项简单的任务。考虑到法规(特别是核能)、电力线规划和建设,从制定计划到电力流入电网可能需要很多年的时间。
《华尔街日报》在一篇及时的文章中密切关注了美国佐治亚州以及该州如何应对众多科技和工业企业的开业。
《华尔街日报》指出,许多新企业“消耗了大量电力”。与此同时,各州正在努力减少对化石燃料发电的依赖,这使得吸引关键企业同时确保其能源供应变得如同走钢丝。让事情变得更加复杂的是影响消费者价格和供给的需求和供给问题。
展望未来,灵活性似乎至关重要,利用太阳能和风能等多种可再生能源,采用电池进行尖峰管理,在可用的情况下使用核能,并根据需要务实地使用化石燃料资源。
有趣的是,与上面扎克伯格的采访相关的是,《华尔街日报》指出,Meta / Facebook 正在与佐治亚州一家名为 Silicon Ranch 的合作社和太阳能开发商合作,为其数据中心提供电力。
亟需更节能的芯片
要理解人工智能需要如此多能量的关键原因,可以想象一个计算机芯片作为当地图书馆的一个分支机构,而人工智能算法作为具有借阅权限的研究人员。每当算法需要数据时,它都会进入库(称为存储芯片)检查数据并将其带到另一个芯片(称为处理器)来执行功能。
人工智能需要大量数据,这意味着相当于数十亿本书在这两个芯片之间来回运输,这个过程会消耗大量电力。至少十年来,研究人员一直试图通过制造可以处理存储数据的芯片来节省电力。“你不用把书从图书馆带回家,而是去图书馆做作业,”斯坦福大学教授、存储芯片领域的顶级专家、台积电顾问 Philip Wong 说。
这个过程通常被称为内存计算,面临着技术挑战,目前刚刚超出研究阶段。随着人工智能的用电引发对其经济可行性和环境影响的严重质疑,能够提高人工智能能源效率的技术可能会带来巨大回报。这使得内存计算成为越来越令人兴奋的话题,甚至意味着它开始陷入更广泛的半导体地缘政治争论中。
台积电、英特尔、三星等主要芯片厂商都在研究内存计算。英特尔公司研究部门英特尔实验室的高级首席工程师 Ram Krishnamurthy 表示,英特尔公司已经生产了一些芯片来进行研究,但他拒绝透露内存计算如何融入英特尔的产品阵容。OpenAI 首席执行官 Sam Altman 等个人、微软等公司以及来自中国、沙特阿拉伯和其他地方的政府附属实体都投资了从事该技术的初创公司。
去年 11 月,一个审查具有国家安全影响的外国投资的美国政府小组迫使沙特能源公司阿美公司的风险投资基金从总部位于旧金山、专注于内存计算的初创公司 Rain AI 撤资。据知情人士透露,沙特阿美的风险投资部门目前正在美国以外寻找其他从事内存计算的公司,并在中国积极物色。在讨论非公开业务事宜时,这些知情人士要求保持匿名。
尤其是中国,对该技术表现出了越来越大的兴趣。据跟踪投资数据的 PitchBook 称,PIM Chip、Houmo.AI 和 WITmem 等少数中国初创公司正在从知名投资者那里筹集资金。普林斯顿大学教授纳文·维尔马 (Naveen Verma) 也是一家致力于内存计算的初创公司 EnCharge AI 的联合创始人,他表示,他经常受邀在中国公司和大学就该主题发表演讲。“他们正在积极尝试了解如何构建系统——内存计算系统和一般的高级系统,”他说。Verma 表示,他已经好几年没有去过中国了,并且只在亚洲发表过关于他的学术工作的演讲,而不是关于 EnCharge 的技术。
目前还无法确定这种芯片技术是否会成为人工智能计算未来的重要组成部分。传统上,内存计算芯片对温度变化等环境因素很敏感,这会导致计算错误。初创公司正在研究各种方法来改善这一点,但这些技术都是新的。更换新型芯片的成本高昂,而且客户通常会犹豫是否这样做,除非他们对显着改进有信心,因此初创公司必须让客户相信,好处值得冒风险。
目前,内存计算初创公司还没有致力于人工智能计算中最困难的部分:训练新模型。这一过程中,算法检查 PB 级数据,收集用于构建系统的模式,该过程主要由 Nvidia 公司等公司设计的顶级芯片来处理。该公司一直致力于制定自己的提高能效的策略 ,包括减小晶体管的尺寸并改进芯片之间的通信方式。
制造内存计算芯片的初创公司并没有直接挑战英伟达,而是致力于将业务建立在推理之上,即使用现有模型接受提示并输出内容。推理并不像训练那么复杂,但它是大规模发生的,这意味着专门为提高推理效率而设计的芯片可能有一个良好的市场。
硅谷芯片初创公司 d-Matrix 的创始人兼首席执行官 Sid Sheth 表示,Nvidia 的主要产品(一种被称为图形处理单元的芯片)的高功耗使其成为用于推理的相对低效的选择。该公司已从微软公司和新加坡国有投资者淡马锡控股私人有限公司等投资者那里筹集了 1.6 亿美元。他表示,在人工智能热潮开始之前,向投资者推销是一项挑战。“23 年上半年,每个人都因为 ChatGPT 而得到了它,”他说。该公司计划今年销售首批芯片,并于 2025 年实现量产。
内存计算公司仍在摸索其产品的最佳用途。总部位于荷兰的 Axelera 是一家内存计算初创公司,其目标是汽车和数据中心的计算机视觉应用;总部位于德克萨斯州奥斯汀的 Mythic 的支持者认为内存计算是近期人工智能安全摄像头等应用的理想选择,但最终希望它们可以用于训练人工智能模型。
行业智囊团半导体研究公司首席科学家维克多·日尔诺夫 (Victor Zirnov) 表示,人工智能能源使用的巨大规模给每个致力于提高技术效率的人带来了紧迫性。“人工智能迫切需要节能解决方案,”他说。“否则它很快就会走入穷巷。”
原文链接
https://www.tomshardware.com/tech-industry/ai-gpu-bottleneck-has-eased-but-now-power-will-constrain-ai-growth-warns-zuckerberg
END
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3764期内容,欢迎关注。
推荐阅读
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦
微信扫码关注该文公众号作者