设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

大模型驱动云计算需求激增,Arm拿出新应对之策

2024-03-07 12:10:20 来源:

21世纪经济报道记者骆轶琪 广州报道 dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

随着全球云计算巨头纷纷提出自研AI芯片计划,各类型计算产业链公司都迎来巨大发展机会。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

虽然目前最为瞩目的是GPU巨头NVIDIA,但AI芯片计算需求不仅限于强于并行计算的GPU,还包括主打通用计算的CPU、专用芯片ASIC等。因此相关公司都在不断攻坚提升芯片性能。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

近日Arm高级副总裁兼基础设施事业部总经理Mohamed Awad接受21世纪经济报道等记者采访时分析,目前在云服务商对AI的极大兴趣驱动下,和AI相关的计算需求非常庞大,但传统的通用CPU已无法满足AI相关计算需求。而云服务商自主设计芯片过程中,也需要考虑这些芯片都能运行目前市面上已有的软件。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

“我们看到合作伙伴正构建与AI加速器紧密耦合的定制通用计算,这在Arm与NVIDIA Grace Hopper、亚马逊云科技 (AWS) 以及微软的合作中都有所体现。此外,这一趋势也正发生在许多中国合作伙伴的项目上,他们在开发加速器的同时,还致力于协同设计通用计算。”他续称。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

自研芯片趋势明显

从整体趋势看,Arm 基础设施事业部产品解决方案副总裁Dermot O’Driscoll指出,AI芯片行业正呈现两个特征:其一,人们希望对支持云计算关键工作负载的计算进行优化;其二,头部企业正在打造定制芯片,并需要有效的方式来实现。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

Mohamed Awad进一步分析,“基础设施所需处理和管理的数据和计算量相当大,加上AI等新工作负载的计算需求又非常高。这意味着通用的现成芯片很难优化到能够支持基础设施日益增长的需求。数据中心提供商和头部云服务提供商正在重新设计整个服务器、机架和仓库,从而获得更佳的性能、效率和总体拥有成本 (TCO)。这一切驱使他们从定制芯片着手。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

他具体举例道,在基础设施领域,看到转型持续朝向更复杂的仓库级计算,它不再只关乎芯片、服务器或机架,而是关乎整个数据中心。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

“NVIDIA就是很好的例子,其推出的Grace Hopper从根本上重新设计了系统架构。在这一设计中,从单个CPU管理多个GPU,转变为CPU与GPU一对一映射。更多CPU意味着内存一致性,最终会大大提高GPU的利用率。”他指出,AWS和微软等巨头也采取了类似方法,从头开始设计系统,并从定制系统级芯片 (SoC) 开始。因为他们比任何人都更了解自己的工作负载,可以对系统各方面进行调优,包括网络、加速甚至是通用计算,以优化效率、性能和TCO。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

“去年我们推出了Arm Neoverse计算子系统(CSS),使定制芯片更迅速且易实现。”Dermot O’Driscoll介绍,在Neoverse CSS中,Arm负责配置、优化和验证一套完整的计算子系统,并针对基础设施市场的各种关键用例进行配置,从而让合作伙伴能够专注于针对特定系统级工作负载塑造差异化竞争优势,比如软件调优、定制加速等。此外,客户还能加速产品上市时间、降低工程成本。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

近期Arm宣布推出两款基于第三代Neoverse IP构建的新Arm Neoverse CSS,即Arm Neoverse CSS V3和Arm Neoverse CSS N3。其中Arm Neoverse CSS V3与CSS N2相比,单芯片性能可提高50%;Arm Neoverse CSS N3与CSS N2相比,其每瓦性能可提升20%。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

当然,AI的适用范围不仅是应用服务器和数据中心。AI正成为包括网络、安全和存储等诸多领域不可或缺的一部分,它可应用到包括小型终端到交换机、路由器和基站等各种设备在内的整个基础设施中。Mohamed Awad表示,凭借新的CSS N3和CSS V3,Arm专注于释放芯粒等新技术的潜力,并更大限度优化实际工作负载的TCO。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

软硬件适配的重要性

当然也正因为自研芯片参与者众多,导致相关AI芯片从设计、流片到最终商用落地的过程,将涉及与不同软件、接口等匹配,同时如何节省能耗也尤为重要。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

Dermot O’Driscoll受访时介绍,在算力需求持续增长下,意识到算力也受到成本和能源的限制这一点很重要。这也驱动了在数据中心和基础设施中自上而下的优化,并带来越来越多专为软件工作负载量身打造定制芯片的需求。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

“在构建Neoverse N3和V3平台时,Arm也与合作伙伴紧密合作,了解他们的软件需求并针对这些需求提供优化。我们的CSS和IP平台意味着合作伙伴可以更加灵活地根据特定需求进一步优化设计。”他续称,“同时,我们一直在与合作伙伴一起构建和优化云原生软件。我们从早期就将软件栈和工作负载迁移到Arm平台的合作伙伴那里,得到的反馈是,整个迁移过程比预期容易。”dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

在应用场景方面也有新的趋势表现。Dermot O’Driscoll分析道,目前行业重点更多放在训练LLM(大语言模型)上,但随着生成式AI广泛应用于实际业务场景,其工作重点将转向推理。有分析师估计,已部署的AI服务器中有高达80%专用于推理,这一数字还将持续攀升。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

近期NVIDIA财报会上也提到,在去年第四财季,其数据中心类业务中,约有40%收入是用于AI推理所产生。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

这一转变意味着要找到合适的模型和模型配置,并加以训练,然后将其部署到更具成本效益的计算基础设施上。吞吐量是其中一部分考虑因素,当然还有其他因素。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

Dermot O’Driscoll表示,CPU广泛可用,并可灵活用于ML(机器学习)或其他工作负载,此外,CPU还易于部署,并可支持各种软件框架,具备低成本和高能效等优势。因此,CPU推理将是生成式AI计算应用的关键组成。但显然,也并非所有AI处理都将在CPU上进行。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

“NVIDIA Grace Hopper的一大关键创新在于内存容量和共享内存模式。这种紧耦合的CPU加上加速器配置,对大参数LLM非常有益,对检索-增强-生成 (RAG) 等新兴方法也很有帮助。Arm推出的Neoverse CSS能提供客户所需的所有接口,以便选择耦合自身的加速器。这种方法既可以在需要CPU时提供CPU,又可以在需要AI加速器时提供AI加速器,做到两全其美。”他指出。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

在Neoverse CSS基础上,去年10月,Arm全面设计(Arm Total Design) 生态项目推出,围绕Arm计算子系统开展创新设计。Arm基础设施事业部营销副总裁Eddie Ramirez则介绍,在推出后四个月内,Arm全面设计生态项目已有20多家成员加入。其中包括新的EDA和配套IP提供商以及来自各个战略市场的芯片设计合作伙伴。dWk流量资讯——探索最新科技、每天知道多一点LLSUM.COM

本文链接:大模型驱动云计算需求激增,Arm拿出新应对之策http://www.llsum.com/show-2-3491-0.html

声明:本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

上一篇: 专访全国人大代表、中兴通讯高级副总裁苗伟:统筹谋划算力产业发展,为发展新质生产力寻找新落点

下一篇: 芯片战场丨先后牵手代工巨头、RISC-V独角兽,日本半导体雄心加速落地?

热门资讯

推荐资讯

  • 日榜
  • 周榜
  • 月榜