Bendi新闻
>
AMD GPU,将开源

AMD GPU,将开源

6月前

👆如果您希望可以时常见面,欢迎标星🌟收藏哦~


来源:内容由半导体行业观察(ID:icbank)编译自tomshardware,谢谢。


AMD 表示,它有望在 5 月底发布其微引擎调度程序 (MES) 文档,随后发布源代码。然后,它将继续以开源方式发布 Radeon 堆栈的其他部分。该声明似乎是为了回应Tiny Corp 的 Tweet/X,该公司几个月来一直在社交媒体上公开与 AMD 通信(并经常批评)。


近几个月来,Tiny Corp 和 AMD 之间的讨论多次成为头条新闻。前者设计并预售了 TinyBox AI 服务器,该服务器由于使用相对便宜的 AMD Radeon GPU 而引起了人们的兴趣。然而,该公司的社交媒体及其创始人乔治·霍茨(George Hotz) 发现消费者级卡的行为不适合服务器级或企业级,因此变得非常直言不讳。


简而言之,Tiny Corp 希望更多/更深入地访问 AMD 硬件、固件和驱动程序 IP。该公司认为,只要能够充分访问固件和驱动程序堆栈,就可以使 Tiny Box 发挥其宣传的功能。尽管 Tiny Corp 是一家小公司,AMD 仍参与其中,甚至苏姿丰博士在 3 月初也加入了对话。早在三月份,Su 就表示“团队正在努力”,但 Tiny Corp 至今仍对自己所处的情况感到不满。


“我们正努力在 5 月底发布微引擎调度程序 (MES) 文档,并将跟进已发布的源代码以供外部审查和反馈,” AMD Radeon Twitter/X 官方帐户在 4 月初指出。“我们还开放了 GitHub 跟踪器,其中将提供有关修复和发布日期的最新状态。”


今天,我们看到 AMD 文档和开源进展的重大更新。在回应 Tiny Corp 的进一步讽刺时,红队图形部门重申了本月早些时候的 MES 文档声明。它补充说,“Radeon 堆栈的其他部分将在全年开源”,然后指示感兴趣的各方密切关注GitHub 存储库。


Tiny Corp 已经对 AMD 的声明做出了回应,将 MES 消息描述为“转移注意力”,并要求将架构的更多部分开源,并提供硬件调度程序的文档,它认为这是 Tiny Box 的原因系统死锁。


作为对使用 Tiny Box 这样的服务器并不特别感兴趣的 PC 爱好者,我们仍然对额外 Radeon 文档和开源软件的发布可能给我们带来的连锁反应非常感兴趣。如果 bug 被消除并通过像 Tiny Corp 这样的实体进行优化,这对其他 Radeon 用户来说应该是件好事。此外,这一开放举措可能有利于 Linux 开发人员和社区寻求从 Radeon 硬件中获得更多收益。


AMD的AI芯片战略


如果说 AMD 的故事就像过山车一样,那是轻描淡写了。因为2014 年的 AMD 和 2024 年的 AMD 之间存在着巨大的反差。十年前的 AMD 举步维艰,而今天的 AMD 正在复苏,关键的是,他们已经成为了许多市场的参与者。


与该领域的许多其他参与者一样,人工智能是主要关注点,该公司在内部建立了专门的人工智能团队,以涵盖快速发展的人工智能市场的完整端到端战略。


最近几周,AMD 首席执行官苏姿丰 (Lisa Su) 和计算与图形部门高级副总裁/总经理 Jack Huynh 均回答了行业分析师提出的有关 AMD 人工智能硬件战略的性质以及如何看待其产品组合的问题,我们来将其综合以下。


AMD 的 AI 硬件战略分为三个方面:


第一个是 AMD 的 Instinct 系列数据中心 GPU,以 MI300 系列的形式零售。


MI300X 有两种变体,专注于 AI - 它已成功获得 Microsoft 和 Azure 等大型云厂商以及TensorWave 等一些较小的以 AI 为中心的云的采用。


在最新的财报电话会议上,Lisa Su 评论称,对这些芯片的需求不断扩大,到 2024 年底,收入将从 20 亿美元增加到 35 亿美元。在发布会上,AMD 将自己与 NVIDIA 的 H100 进行了比较,标志着八芯片系统在 ML 训练中相同,但在 ML 推理中更好。


该系列的另一个变体是 MI300A,提供类似的规格,但是 CPU/GPU 组合,面向高性能计算。它已被采用到计划中的最大的全球超级计算机 El Captian 中,该计算机将使用机器学习模型来协助保护美国核储备。


在谈到 MI300 的采用时,Lisa 表示:


“我们感到惊喜,很高兴看到 MI300 的发展势头,以及这种势头的来源。大型云[客户]通常移动速度最快——从工作负载[到工作负载]。LLM 非常适合 MI300 - 我们的内存容量和内存带宽[处于市场领先]。人工智能是最主要的工作负载。[我们]拥有相当广泛的客户群,他们有不同的需求 - 有些是训练,有些是微调,有些是混合的。当我们从客户开始时,[但是]从模式中失去了信心。[我们在软件环境方面也花费了]大量工作。新客户[发现]更容易达到他们的性能期望,因为 ROCm(AMD 的软件堆栈)正在变得成熟。[我们] [MI300] 最大的工作负载是大型语言模型。”


还应该指出的是,AMD 最近宣布正在将其芯片间通信协议(称为 Infinity Fabric)扩展到 Arista、Broadcom 和 Cisco 等特定网络合作伙伴。我们希望这些公司能够构建 Infinity Fabric 交换机,使 MI300 能够在单一系统之外实现芯片间通信。


AMD 战略的第二个方面是他们的客户端 GPU 系列。


这包括 AMD 的 Radeon 独立显卡 (GPU) 及其 APU,后者由集成到客户端 CPU 上的 GPU 组成,主要用于笔记本电脑。AMD 人工智能战略的第一个和第二个方面都依赖于他们的计算堆栈,称为 ROCm,它是 AMD 与 NVIDIA CUDA 堆栈的竞争对手。


关于 ROCm(即使是最新版本)的长期抱怨是企业和消费类硬件之间的支持不一致 - 只有 AMD 的 Instinct GPU 能够正确支持 ROCm 及其相关库并选择独立 GPU,而 CUDA 几乎可以在所有 NVIDIA 硬件上运行。


然而,杰克在我们的问答中说:


“我们[目前]在我们的 7900 旗舰机上启用 ROCm,以便您可以执行一些人工智能应用程序。我们将更广泛地扩展 ROCm。” “有些学校、大学和初创公司可能买不起非常高端的 GPU,但他们想要进行修补。我们希望使该社区成为开发者工具。”


我们希望这意味着 ROCm 对当前一代硬件以及所有未来版本的支持更广泛 - 不仅仅是他们的旗舰 RX7900 系列。


Lisa 还对 AMD 的软件堆栈发表了评论:


“最近的大问题是软件。我们在软件方面取得了巨大进步。ROCm 6 软件堆栈是一个重大进步。在软件方面还有很多工作要做……我们希望抓住巨大的机遇。”


AMD 的第三个方面是他们的 XDNA AI 引擎。


虽然该技术来自 Xilinx,但该 IP 在收购之前已授权给 AMD。这些人工智能引擎正在集成到笔记本电脑处理器中,并将作为微软 AIPC 计划的 NPU 呈现,以与英特尔和高通的产品竞争。这些 AI 引擎专为低功耗推理而设计,而不是高功耗 GPU 能够进行的高吞吐量推理或训练。


在评论 NPU 与 GPU 的地位时,Lisa 说:


“人工智能引擎在某些地方会更加流行,例如个人电脑和笔记本电脑。如果您正在寻找大规模、更多的工作站笔记本电脑,[他们]可能会在该框架中使用 GPU。”


AMD 看到了多种人工智能工作负载和引擎的未来:CPU、GPU 和 NPU。值得注意的是,空间中的其他人都发出同样的声音。


Jack评论说:


“[对于] NPU,微软由于功效而大力推动[它]。NPU 仍然可以驱动体验,但不会损害电池[寿命]。我们将赌注押在 NPU 上。我们将在 AI 上实现 2 倍和 3 倍……NPU 的关键在于电池寿命 - 在台式机中,您往往不用担心电池,而且还可以将 [NPU 支持的]自定义数据格式带入台式机。”


这种三管齐下的方法使 AMD 能够在各个方面解决人工智能领域的问题,这表明并非所有鸡蛋都必须放在同一个篮子里。AMD 使用这种方法已经取得了一些成功——在数据中心领域,AMD 被认为是 NVIDIA 最接近的竞争对手。MI300 的内存容量和带宽使其能够与 NVIDIA 的 H100 硬件(我们仍在等待 B100 基准测试)进行良好的竞争。NPU 领域仍然太新且不稳定,无法真正确定 AMD 的战略是否获得回报;不过,微软很可能会将 NPU 用于本地机器学习模型,例如助手或“‘co-pilot”模型。


从我们的角度来看,AMD 战略的弱点在于桌面 GPU 方面,因为整个 AMD 硬件堆栈缺乏近乎普遍的 ROCm 支持。这是一个需要时间才能解决的问题——战线分裂的缺点之一是资源的划分。AMD 将要求严格的管理,以确保整个公司的工作不会重复。不过,也有积极的一面,AMD 不断提高对 2024 年数据中心收入的预测,声称限制只是需求,而不是供应。


原文链接

https://www.tomshardware.com/pc-components/gpus/amd-pushes-forward-with-its-radeon-stack-open-sourcing-plans-after-being-prodded-by-tiny-corp


点这里👆加关注,锁定更多原创内容

END


*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。



今天是《半导体行业观察》为您分享的第3744期内容,欢迎关注。


推荐阅读


EUV光刻机重磅报告,美国发布

碳化硅“狂飙”:追赶、内卷、替代

芯片巨头,都想“干掉”工程师!

苹果,玩转先进封装

GPU的历史性时刻!

大陆集团,开发7nm芯片

张忠谋最新采访:中国会找到反击方法

EUV光刻的新“救星”

『半导体第一垂直媒体』

实时 专业 原创 深度

公众号ID:icbank


喜欢我们的内容就点“在看”分享给小伙伴哦

微信扫码关注该文公众号作者

来源:半导体行业观察

相关新闻

英伟达官宣全面开源GPU内核驱动,两年迭代至最强版本!下一代Blackwell全用开源北大快手攻克复杂视频生成难题!新框架轻松组合各种细节,代码将开源两分钟1200帧的长视频生成器StreamingT2V来了,代码将开源跟着我一步两步三步,用开源方式将AI带入企业最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上开源独角兽GitLab将被“卖身”新版 Redis 将不再“开源”引争议:本想避免云厂商“白嫖”,却让开发者遭到“背刺”!开源 Redis 的生命将就此终结?Redis 之父回应分叉浪潮:未来谁能领先,各凭本事!深度|硅谷知名投资人 Elad Gil 最新洞察:开源若追上闭源,将显著改变 AI 寡头垄断格局,经济价值将从后者转向云服务商下一代 RAG 技术来了!微软正式开源 GraphRAG:大模型行业将迎来新的升级?Rust 语言编写,Linux 版开源 Zed 编辑器发布:支持 GPU 加速苹果开源大模型OpenELM来了,或将用在下一代iPhone上;红杉入局,传马斯克AI公司将获60亿美元投资丨AI周报OpenAI有望在今年夏季推出GPT-5;英伟达推出更强GPU芯片;马斯克宣布正式开源Grok-1|AIGC周观察第三十七期小扎All in 开源AGI:正训练Llama 3,年底将有35万块H100AMD 的努力以失败告终,无法为 Linux 开源驱动提供 HDMI 2.1+ 功能Yandex 开源 LLM 训练工具,可节省高达 20% 的 GPU 资源周鸿祎向李彦宏“开炮”:有些名人胡说八道别被忽悠了;全球最强开源大模型Llama 3发布:最大模型参数将超4000亿丨AI周报国内首个开源千亿参数MoE大模型来了!性能超Grok-1,单张GPU可跑开源日报 | 清明节前AI复活亲人成热门生意;中国没有“百模大战”,未来也不会有“十模大战”;谁将替代Transformer?“女巴菲特”惊人预测人形机器人将于2030年进入家庭,通用AI出现,赞中国开源力量史上首个100%开源大模型重磅登场!破纪录公开代码/权重/数据集/训练全过程,AMD都能训苹果、AMD和高通GPU被爆存在漏洞!只需十行代码即可窃取数据,数百万台苹果设备或将受到影响AI早知道|在线版FLUX免费开源;首个微调Llama 3.1 405B终于来了!中国首个接入大模型的Linux开源操作系统正式发布!
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。