全新MLCommons结果公布,英特尔在AI领域的优势尽显

发布时间:2023-06-28  

Habana Gaudi2和第四代英特尔至强可扩展处理器为AI训练提供领先的性能并大幅节约成本


今日,MLCommons公布其行业AI性能基准测试MLPerf训练3.0的结果,其中,Habana® Gaudi® 2深度学习加速器与第四代英特尔®至强®可扩展处理器展现出令人印象深刻的训练结果。


英特尔执行副总裁兼数据中心与人工智能事业部总经理Sandra Rivera表示:“最新由MLCommons发布的MLPerf结果验证了使用英特尔至强可扩展处理器和英特尔Gaudi深度学习加速器,可以在AI领域为客户带来更高的性价比(TCO)。其中,至强的内置加速器使其成为在通用处理器上运行大量AI工作负载的理想解决方案,而Gaudi则为大语言模型和生成式AI提供了极具竞争力的优异性能。此外,英特尔的可扩展系统配备了经过优化的、易于编程的开放软件,可降低客户和生态伙伴在数据中心部署从云到智能边缘各种基于AI的解决方案的门槛。”


目前,业内普遍认为生成式AI和大语言模型(LLMs)仅适宜在GPU上运行。然而,最新的数据显示,基于英特尔产品组合的AI解决方案,能够为在封闭生态系统中寻求摆脱当前效率与规模限制的客户提供极具竞争力的选择。


最新的MLPerf训练3.0结果展现了英特尔产品在一系列深度学习模型上的优异性能。在大语言模型GPT-3上,基于Gaudi2的软件与系统在AI训练成熟度上得到了大规模验证。值得一提的是,Gaudi2是仅有的两个向GPT-3大模型训练基准提交性能结果的解决方案之一。


与此同时,Gaudi2还为客户提供了极具竞争力的成本优势,包括服务器和系统成本。其在GPT-3、计算机视觉和自然语言模型上经由MLPerf验证的杰出性能,以及即将推出的软件,使Gaudi2成为业界一个极具吸引力与性价比解决方案。


在CPU方面,第四代至强可扩展处理器采用英特尔AI引擎,其深度学习训练性能的结果表明,客户可以使用基于至强的服务器,构建一个通用AI系统以用于数据预处理、模型训练和部署,从而获得兼具AI性能、效率、准确性和可扩展性的最优组合。


关于Habana Gaudi2的测试结果: 训练生成式AI和大语言模型需要服务器集群来满足大规模的计算要求。最新MLPerf结果切实验证了Habana Gaudi2在要求极为苛刻的模型——1750亿参数的GPT-3上的出色性能以及高效的可扩展性。


测试亮点:


Gaudi2在GPT-3*上实现了令人印象深刻的训练时间: 在384个加速器上的训练时间为311分钟。


在GPT-3模型上,从256个加速器到384个加速器实现近线性95%的扩展效果。


在计算机视觉模型ResNet-50(8个加速器)和Unet3D(8个加速器)以及自然语言处理模型BERT(8个和64个加速器)上取得了优异的训练结果。


与去年11月提交的数据相比,BERT和ResNet模型的性能分别提高了10%和4%,证明Gaudi2软件成熟度的提升。


Gaudi2支持“开箱即用”功能,客户在本地或在云端使用Gaudi2时,可以获得与本次测试相当的性能结果。

 

image.png

Habana® Gaudi®2夹层卡


关于Gaudi2的软件成熟度: Gaudi的软件支持在持续发展和成熟,并能与日益增长的生成式AI及大语言模型的需求保持同步。


本次提交的GPT-3模型基于PyTorch,并采用了当前流行的、隶属微软大规模AI的DeepSpeed优化库,而非定制软件。DeepSpeed能够同时支持Data、Tensor和Pipeline的三维并行,进一步优化了大语言模型的扩展性能效率。


本次MLPerf 3.0的Gaudi2结果以BF16数据类型已提交。预计在2023年第三季度发布对FP8的软件支持与新功能时,Gaudi2的性能将有明显飞跃。


关于第四代至强可扩展处理器的测试结果: 作为众多解决方案中唯一提交的基于CPU的解决方案,MLPerf结果表明,英特尔至强可扩展处理器为企业提供了“开箱即用”的功能,可以在通用系统上部署AI,避免了引入专用AI系统的高昂成本和复杂性。


对于少数从头开始间歇性训练大模型的用户,他们可以使用通用CPU,并且通常是在已经完成部署的、基于英特尔的服务器上运行其业务。此外,大多数人将采用预先训练好的模型,并用小型数据集对其进行微调。英特尔发布的结果表明,通过使用英特尔AI软件以及标准的行业开源软件,这种微调可以在短短几分钟内完成。


MLPerf测试亮点:


在封闭区,第四代至强可以分别在50分钟以内(47.93分钟)和90分钟以内(88.17分钟)的时间里训练BERT和ResNet-50模型。


对于BERT模型的开放区,结果显示,当扩展至16个节点时,第四代至强能够在大约30分钟左右(31.06分钟)完成模型训练。


对于较大的RetinaNet模型,第四代至强能够在16个节点上实现232分钟的训练时间,使客户能够灵活地使用非高峰期的至强周期来训练其模型,即可以在早晨、午餐或者夜间进行模型训练。


具备英特尔®高级矩阵扩展(Intel® AMX)的第四代英特尔至强可扩展处理器提供了显著的“开箱即用”性能提升,其范围覆盖了多个框架、端到端数据科学工具,以及广泛的智能解决方案生态系统。

 

image.png

第四代英特尔®至强®可扩展处理器


MLPerf被普遍认为是最具信服力的AI性能测试基准,能够在各种解决方案之间进行公平、可重复的性能比较。目前,英特尔已拥有超100次性能结果,且是唯一一个使用行业标准的深度学习生态系统软件,并公开提交CPU结果的厂商。


该结果亦展示了使用极具性价比,且随时可用的英特尔以太网800系列网络适配器,可以实现出色的扩展效率,此类适配器采用基于英特尔oneAPI的开源英特尔®以太网软件包。


说明:


* MLPerf 测试语料库由1%的GPT-3 模型代表组成。


声明:


产品性能或因使用方式、配置和其他因素而异。 

性能结果基于截至配置中所示日期的测试,可能不反映所有公开可用的更新。没有任何产品或组件是绝对安全的。

您的成本和性能结果可能会有所不同。

英特尔技术可能需要通过启用硬件、软件或服务激活。


文章来源于:电子工程世界    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。

我们与500+贴片厂合作,完美满足客户的定制需求。为品牌提供定制化的推广方案、专属产品特色页,多渠道推广,SEM/SEO精准营销以及与公众号的联合推广...详细>>

利用葫芦芯平台的卓越技术服务和新产品推广能力,原厂代理能轻松打入消费物联网(IOT)、信息与通信(ICT)、汽车及新能源汽车、工业自动化及工业物联网、装备及功率电子...详细>>

充分利用其强大的电子元器件采购流量,创新性地为这些物料提供了一个全新的窗口。我们的高效数字营销技术,不仅可以助你轻松识别与连接到需求方,更能够极大地提高“闲置物料”的处理能力,通过葫芦芯平台...详细>>

我们的目标很明确:构建一个全方位的半导体产业生态系统。成为一家全球领先的半导体互联网生态公司。目前,我们已成功打造了智能汽车、智能家居、大健康医疗、机器人和材料等五大生态领域。更为重要的是...详细>>

我们深知加工与定制类服务商的价值和重要性,因此,我们倾力为您提供最顶尖的营销资源。在我们的平台上,您可以直接接触到100万的研发工程师和采购工程师,以及10万的活跃客户群体...详细>>

凭借我们强大的专业流量和尖端的互联网数字营销技术,我们承诺为原厂提供免费的产品资料推广服务。无论是最新的资讯、技术动态还是创新产品,都可以通过我们的平台迅速传达给目标客户...详细>>

我们不止于将线索转化为潜在客户。葫芦芯平台致力于形成业务闭环,从引流、宣传到最终销售,全程跟进,确保每一个potential lead都得到妥善处理,从而大幅提高转化率。不仅如此...详细>>