苹果为何自研这颗芯片?
👆如果您希望可以时常见面,欢迎标星🌟收藏哦~
最近有消息表明,苹果正在为其数据中心设计自己的人工智能芯片。这将为他们提供一个端到端、云到边缘的人工智能系统,这是竞争对手短期内无法匹敌的。
彭博社马克·古尔曼上周的一篇报道指出,苹果将在数据中心安装自己的芯片,几天后,《华尔街日报》用自己的报道证实了这一点。这一信息最初遭到了高度怀疑,尤其是来自《华尔街日报》的质疑,该报后来改变了对此问题的立场。
许多人表示苹果“不是一家云公司”,并且不认为他们走这条路有什么意义。这让我们感到很奇怪,因为我们知道苹果多年来一直在关注这个问题。在这里,我们想列出一些我们认为苹果想要自己的数据中心芯片的原因。
首先,苹果正在制造芯片,因为他们有能力。在领先产能有限的情况下,苹果是台积电最大的客户,想必可以获得他们想要的大部分产能。如果他们确实很好地利用了该芯片,那么现在正是时候。其他人都在争先恐后,可以想象,苹果可能会取得很大的领先优势。
还应该明确的是,苹果在很大程度上是一家云服务提供商——他们确实拥有一款名为 iCloud 的产品。令人困惑的部分原因在于,苹果公司很少透露其数据中心的用途。他们从来没有完全清楚地说明如何提供云服务,这些服务似乎是 Google Cloud、Azure 以及可能还有一些 AWS 的某种组合,但也有他们自己的数据中心。当我们谈论“超大规模企业”时,我们默默地假设苹果是十大数据中心运营商之一。如果所有其他超大规模企业都在设计自己的芯片,那么苹果也会这样做。
更微妙的答案是这变得更有趣的地方。长期以来,我们一直在哀叹生成式人工智能缺乏令人信服的消费者用途,并且我们经常补充说,该行业需要苹果向其他人展示可以做什么。我们并不相信苹果实际上已经解决了这个问题,但考虑到下个月的 WWDC 将重点关注人工智能的所有传言,我们很感兴趣。
因此,我们假设苹果已经推出了一些令人印象深刻的人工智能应用程序,或者至少是苹果认为令人印象深刻的应用程序。我们知道他们多年来一直致力于人工智能——从 Siri 语音识别的稳步改进,到照片和视频图像的机器学习底层改进,再到 A 系列手机处理器自2018年以来拥有“神经引擎”这一简单事实。
他们在 ChatGPT 之前就为 M 系列芯片提供了transformer支持。在这些模型广泛流行后不久,他们就推出了这种支持,以至于他们似乎已经在这个想法上工作了一段时间了。苹果拥有一支强大的人工智能团队。
此外,该团队似乎已经建立了自己的基础模型。当然,苹果拥有其所有关键软件和大量数据(即,他们知道你用手机做什么)。我们不清楚苹果是如何训练这个模型的,但我们怀疑他们像其他人一样使用 Nvidia。
然而,随着苹果推出其人工智能应用程序,他们将需要进行大量推理。他们将在设备上运行其中一些(也称为“边缘”,又称为消费者为资本支出和运营支出付费),但他们也会在云中运行一些推理。
从所有报道来看,尚不完全清楚苹果将在数据中心使用什么芯片。我们看到有报道称他们将使用 M2 CPU、M4 CPU 或名为 ACDC(Apple Chips in Data Center,这将是 2024 年芯片命名竞赛中明显的获胜者)的全新芯片。无论他们最终使用什么,他们都将受益于连接云和边缘推理的通用软件层。
许多公司都在讨论提供此类产品,但苹果可能是第一个大规模生产这种产品的公司。以这种方式连接所有设备可以节省大量电量,但也可能实现更高程度的隐私,这是该公司的一个重要营销主题。我们想象宣传内容会是这样的:“让你的手机运行令人惊叹的人工智能,只有你才能看到你的数据。”因此,在整个软件链上拥有自己的芯片有明显的好处。
这就留下了一个问题:苹果将如何在营销中定位这一点?
正如我们上面提到的,苹果从不谈论他们的数据中心,但现在他们可能愿意这样做,因为它传达了一个对他们有利的信息。事实上,考虑到有关该主题的媒体报道数量,我们怀疑苹果可能故意泄露了一些内容,以确保我们关注。
当我们把这一切归结起来时,苹果似乎有一个有趣的故事来讲述其人工智能产品的广度。这不仅仅是一台人工智能 Mac 或人工智能 iPhone,而是一个提供某种形式的差异化人工智能的完整系统。如果这是真的(我们可能错了),这将是苹果在竞争中抢先一步的又一个例子,因为这是其竞争对手难以匹敌的。
苹果的底气与必然
Apple 在芯片设计方面拥有丰富的经验,自 2010 年的 Apple A4 起,公司就推出了多款自研的处理器。近年来,这家 iDevice 制造商已完全过渡到自己的 Arm 兼容芯片——正式放弃了英特尔的PC处理器。
苹果最后一次退出服务器业务是在 2011 年,当时它永久关闭了 Xserve 系列——它还在 20 世纪 90 年代尝试过服务器硬件,但不太成功。不过,尽管苹果公司已经十多年没有销售服务器硬件了,但这并不是说针对服务器要求而调整的苹果芯片不能用于服务内部工作负载。
从过去的历史看来,他们可能想制造服务器芯片,但在库比蒂诺无法制造,因为那帮工程师离开了苹果,并成立了Nuvia,而该公司现在依然是高通的一部分。
除了通用 CPU 内核之外,Apple 目前的 Arm 兼容芯片还拥有相当强大的集成 GPU 以及旨在加速机器学习操作的专用神经处理单元 (NPU)。
事实证明,最新的 M 系列芯片非常有能力 — 能够以相当高的性能运行相当大的大型语言模型 (LLM)。这种能力很大程度上取决于苹果自主芯片的设计方式。他们M系列Ultra 器件上的计算芯片与多达 8 个 LPDDR5x 内存模块共同封装,为 CPU 和 GPU 提供高达 800GB/秒的内存带宽。
内存带宽是推理性能的关键因素,也是我们看到 AMD 和 Nvidia 等 GPU 制造商转向更快的高带宽内存以避免瓶颈的原因之一。
虽然我们看到的大多数在这些芯片上运行的LLM都通过 Metal API 使用 GPU,但苹果早前推出了M4 以及更新的 iPad,将其 NPU 性能提升至 38 TOPS,使其远远领先于英特尔和 AMD 目前的一代产品。
传闻中的苹果服务器芯片是否与我们已知的 A 系列和 M 系列有任何相似之处还有待观察。但看到库比蒂诺走这条路一点也不奇怪。
截至 2024 年,几乎所有主要科技公司都已部署或正在开发用于人工智能推理或训练的定制芯片。随着Meta 训练和推理加速器 v2 (MTIA v2) 的广泛部署, 他们成为最新推出定制芯片的超大规模企业。
虽然现在很多人工智能关注点都集中在 OpenAI 的 ChatGPT、Google 的 Gemini 或微软基于 OpenAI 的 Copilot 等流行聊天机器人和服务背后的LLM,但 MTIA 实际上是为运行 Meta 的内部推荐模型而设计的——用于广告选择和投放等。
谷歌的TPU和亚马逊的 Trainium 和 Inferenia 套件也有类似的情况,它们最初是为了运行各自的内部工作负载而开发的。但是,与大多数云基础设施一样,过剩容量最终会向公众开放。剩下的就是微软,该公司去年秋天才公布了其定制 CPU 和人工智能芯片。
考虑到苹果公司的运营规模,我们有理由相信,通过将现有的机器学习工作负载(尤其是那些太大而无法在设备上运行的工作负载)转移到内部构建和控制的高度优化的硅片上,苹果公司看到了削减成本的机会。
然而,并不是所有人都相信。值得注意的是,苹果观察人士马克·古尔曼 (Mark Gurman) 早前对此表示了怀疑,他发帖称,虽然苹果在 2018 年左右启动了一个开发服务器芯片的项目,但该计划被放弃了。他补充说,缺乏差异化、高成本以及对设备端人工智能的关注使得这一前景变得更加不可能。
即便如此,在人工智能热潮中,蒂姆·库克仍面临着巨大的投资者压力,要求他更公开地讨论苹果的战略。几个月前,微软占据了最有价值公司排行榜的榜首,至少部分是因为雷德蒙德在人工智能领域的领先地位。我们在这里更详细地讨论了苹果的人工智能战略。
直到今年春天,苹果在营销中基本上避免使用“人工智能”,而更喜欢使用“机器学习”一词——而且只是很少使用。随着 3 月份 M3 MacBook Air 的推出,所有这一切都发生了变化,当时它被誉为“世界上最好的人工智能消费笔记本电脑”。
因此,即使正如古尔曼所说,苹果服务器芯片已经被排除在外,但库克显然渴望改变他在人工智能竞赛中落后的看法。
参考链接
END
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3772期内容,欢迎关注。
推荐阅读
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦
微信扫码关注该文公众号作者