英特尔芯片新蓝图,再度叫板GPU
👆如果您希望可以时常见面,欢迎标星🌟收藏哦~
来源:内容由半导体行业观察(ID:icbank)编译自hpcwire,谢谢。
英特尔正在发布一整套人工智能芯片和系统,希望能在市场上占据一席之地。它的最新产品是一个名为 Hala Point 的神经形态系统。该系统包括英特尔名为 Loihi 2 的研究芯片,这是一款受人脑设计和功能启发的奇特人工智能芯片。
英特尔在其网站上声称:“这可以与基于图形处理单元(GPU)和中央处理单元(CPU)的架构相媲美并超过其水平。”
值得重复的是:Hala Point 是一个研究系统,Loihi 2 芯片仍在英特尔实验室中 ,尚未商用 。它不会很快取代 Nvidia GPU 的统治地位 。
相反,它可能是新计算架构的蓝图,在该架构中计算将转移到数据。当今的计算设计依赖于传输到计算的数据,这造成了瓶颈。
Hala Point系统和Loihi 2系统追求“稀疏计算”的新概念,美国国防部正在将其作为未来的计算架构进行研究。
该芯片的架构在处理音频和视频方面更加有效,英特尔在上个月发表的一篇研究论文中强调了这一点。
英特尔神经芯片的前景
英特尔在 2017 年推出了首款神经拟态芯片,当时它遇到了扩大制造能力和缩小芯片尺寸的困境。
当前的人工智能计算技术涉及将数据转移到计算,由于存储、内存和处理方面的瓶颈,这对于人工智能来说被认为是低效的。Loihi 2 的神经拟态设计侧重于数据点的高效执行,从而释放带宽和存储空间。
美国国防部情报高级研究项目活动 (IARPA) 的项目经理 William Harrod 在Supercomputing 22 会议上的主题演讲中表示,数据的激增使当前的计算模型不可持续,尤其是对于后百亿亿次系统。
Harrod 表示,IARPA 有一个以数据为中心的计算计划,“根据数据移动问题而不是 ALU 的浮点单元来定义计算的未来”。
该计划名为 AGILE(高级图形智能逻辑计算环境),重点关注一种新架构,将计算转移到数据,而不是相反,以生成更快的实时结果。英特尔、高通和 AMD 等公司正在推动该计划的新芯片设计和计算机架构。这些公司正在向 IARPA 提交提案。
英特尔研究人员上个月发表的一篇研究论文将 Loihi 2 与 Nvidia 的 Jetson Orin Nano 进行了比较。研究人员得出的结论是,Loihi 2 比 Orin Nano 具有功耗和性能优势,但 Nvidia 的芯片在大规模计算时表现更好。
硅脑的虚假承诺
芯片制造商和大学已经开发神经形态芯片十多年了。
这种奇特的芯片被大肆宣传为计算机带来了更高水平的智能,而英伟达 GPU 等人工智能芯片所扮演的角色。当时,IBM等公司也在开发神经形态芯片。
神经形态芯片是概率性的,会影响计算中的不确定性和随机性。这些芯片旨在复制大脑的结构和功能,而这本身仍然是一个谜。
大多数传统人工智能芯片都在确定性模型上运行,这些模型更加精确,并且依赖于机器学习和相关算法。然而,人工智能芯片也可以包含概率模型。
神经形态芯片中的计算核心扮演神经元的角色,神经元是相互连接的(如突触)。跨突触的神经元计算是并行发生的。低精度计算点通过了解信息中的趋势和关联来得出结论。
大脑可以通过许多并行工作的神经元来识别猫,英特尔的芯片也旨在实现类似的功能。
英特尔的 Hala Point 将其系统中的计算神经元数量扩大到 11.5 亿个,这与人脑的规模(约 860 亿个)相去甚远。但其计算能力明显大于 2020 年名为 Pohoiki Springs 的神经形态系统,该系统拥有 1 亿个神经元。
英特尔声称,该芯片“在执行传统深度神经网络时,可以支持每秒高达 20 万亿次运算,即 20 petaops,效率超过每秒每瓦 15 万亿次 8 位运算 (TOPS/W)”。这些说法尚未得到独立核实。
神经形态芯片的起源
英特尔的第一个硅大脑项目于 2017 年问世,但其他芯片的开发已经在进行中。IBM 正在开发自己的神经形态芯片,高通正在开发其 Zeroth 芯片。
2013年,高通发布了Zeroth,首席执行官保罗·雅各布斯(Paul Jacobs)调侃了智能手机具有洞察力并预测智能手机用户需求的想法。他的预测需要一段时间才能实现,但像 Google Pixel 这样的智能手机现在可以适应用户需求。
美国和欧盟在 2010 年代资助类脑芯片的努力消失得无影无踪。
从 2008 年开始,DARPA 资助了一个名为多相突触(神经形态自适应塑料可扩展电子系统)的项目,该项目涉及 IBM、惠普、康奈尔大学、斯坦福大学和其他大学。
欧盟资助了一项 16 亿美元的人脑项目,以了解大脑如何工作,其中一个组成部分包括开发基于该设计的芯片。人脑计划现已结束。
IBM 仍然是少数开发硅大脑的组织之一,去年,它发布了一款名为NorthPole的芯片,该芯片更注重功效而不是扩展。
英特尔的神经芯片
Hala Point系统包括Loihi 2芯片,该芯片采用Intel 4工艺制造,每个芯片有128个核心。
每个芯片包含多达 100 万个数字神经元和 1.2 亿个突触。Loihi 2 吞吐量是通过促进神经元之间通信的电脉冲实现的。
Hala Point 芯片拥有 1,152 个 Loihi 2 芯片和 11.5 亿个神经元以及 1,280 亿个突触。六机架系统功耗为 2,600 瓦,芯片采用网状设计组织,具有六个异步并行通道来互连多个 Loihi 2 芯片。
10Gbps 以太网连接器促进通信。英特尔表示,网格配置的范围可以从一个到“数千个芯片”。
英特尔在一份研究论文中表示:“进一步的开发将使神经形态计算的应用能够克服目前限制人工智能功能在现实世界中实时部署的功率和延迟限制。”
这些芯片是人工神经网络,可以执行许多并发的音频和视频功能。计算是稀疏的,并且在数据所在的点执行更多。
英特尔的研究人员在论文中写道:“虽然当今的 GPU、Tensor 处理器和深度学习加速器专注于以非常高的吞吐量进行基于密集矩阵的计算,但神经形态处理器专注于稀疏事件驱动的计算,以最大限度地减少活动和数据移动。” 。
英特尔的研究将其人工神经网络芯片与大约一年前发布的 Jetson Orin Nano 芯片进行了比较。
该研究论文得出的结论是,与稀疏计算模型上的 Jetson 芯片相比,Loihi 2 芯片上的神经元仅在需要时激活。这更加节能,并且可以更好地利用带宽和其他计算资源。
然而,当计算核心完全启动并在相当的带宽内大规模运行时, Jetson Orin 在大型操作方面具有优势 。
芯片适合的地方
Loihi 2 在帕特·基辛格 (Pat Gelsinger) 的重组过程中幸免于难,因此 该公司可能会看到这项研究的价值。Hala Point 部署在桑迪亚国家实验室,该实验室测试各种节能人工智能芯片和配置。
该芯片也是英特尔 AI 芯片系列的一部分,其中包括 Gaudi 3 和 Ponte Vecchio GPU。它不会对任何 CPU 或 GPU(包括英特尔的产品)造成任何当前威胁。
神经形态是英特尔思考其未来的另一个芯片概念。使芯片商业化是一个挑战。与量子处理器一样,这些芯片也需要软件框架和算法。
原文链接
https://www.hpcwire.com/2024/04/24/intels-silicon-brain-system-a-blueprint-for-future-ai-computing-architectures/
END
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第3746期内容,欢迎关注。
推荐阅读
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦
微信扫码关注该文公众号作者