Arm CEO Rene Haas日前表示,当前人工智能 (AI) 的爆炸式增长,特别是生成式人工智能 (gen AI) 的训练和操作,存在“无法满足的能源需求”,但他表示,Arm处于独特的地位,可以提供帮助,并指出最新的 Neoverse CPU IP 可以提供比竞争对手更好的能效。
“人工智能有潜力超越上个世纪创造的所有变革性创新。在医疗保健、生产力、教育和许多其他领域给社会带来的好处将超出我们的想象。”Haas声称。“为了运行这些复杂的人工智能工作负载,全球数据中心所需的计算量需要呈指数级增长。然而,这种对计算的永不满足的需求暴露了一个严峻的挑战:数据中心需要巨大的电力来推动这项突破性的技术。”
Haas 表示,如今,数据中心每年消耗的电力约为 460 太瓦时,相当于德国全年的能源消耗量。 他声称,到 2030 年,对人工智能的需求将增加两倍,超过世界上人口最多的国家印度的总耗电量。 “公司需要重新思考解决能源效率问题的一切,而这种思考自然应该包括转向 Arm 技术。”
目前,大多数数据中心都运行 Intel 或 AMD 的 x86 处理器,以及 Intel、AMD 或 NVIDIA 的加速器。 尽管 Arm 在嵌入式和便携式计算领域取得了相当大的成功,但它长期以来一直在努力打入数据中心——Haas 表示,随着最新 Neoverse 处理器技术的发布,这种情况正在发生变化,该技术已被亚马逊、微软、谷歌和甲骨文采用。
Haas 表示:“随着 Arm 部署的扩大,这些公司可以节省高达 15% 的数据中心总电力。这些巨大的节省可以用来在相同的功率范围内驱动额外的人工智能容量,而不是增加能源问题。从长远来看,这些能源节省可以运行 20 亿个额外的 ChatGPT 查询,为四分之一的日常网络搜索提供动力,为 20% 的美国家庭提供照明,为哥斯达黎加大小的国家提供了电力。”
·为了用确凿的数字来证明这些说法,Haas 列举了一些公司的产品,比如
AWS 基于 Arm 的 Graviton: Amazon Sagemaker 的 AI 推理性能提高了 25%,Web 应用程序速度提高了 30%,数据库速度提高了 40%,效率比竞争对手提高了 60%。
Google Cloud 基于 Arm 的 Axion:与传统竞争架构相比,性能提高 50%,能效提高 60%,为基于 CPU 的人工智能推理和训练、YouTube、Google Earth 等提供支持。
Microsoft Azure 基于 Arm 的 Cobalt:与竞争对手相比,性能提高了 40%,为 Microsoft Teams 等服务提供支持,并与 Maia 加速器结合以驱动 Azure 的端到端 AI 架构。
Oracle Cloud 基于 Arm 的 Ampere Altra Max:与传统竞争产品相比,每机架服务器的性能提高了 2.5 倍,功耗降低了 2.8 倍,并用于生成 AI 推理模型 - LLM 训练的数据汇总、标记化以及批量推理用例。
不过,Arm 并不是唯一一家认为自己能够满足人工智能转型日益增长的能源需求的公司:英特尔刚刚在桑迪亚国家实验室完成了基于 Loihi 2 的 Hala Point 系统的部署,该系统使用了受大脑启发的神经拟态计算,与传统 CPU 和 GPU 部件相比,可实现更高的效率,而 NVIDIA 的 Blackwell 平台承诺能效比该公司上一代同类产品提高 25 倍,该产品采用了Arm 的处理器 IP 与 NVIDIA 的 GPU。