Supermicro 拓展人工智能解决方案

发布时间:2023-11-14  

借助即将上市的 NVIDIA HGX H200 和配备 HBM3e 内存的 MGX Grace Hopper 平台

Supermicro 通过对 NVIDIA HGX H200 和 Grace Hopper 超级芯片的支持,拓展了 8-GPU、4-GPU 和 MGX 产品线,用于满足 LLM 应用的需求,并搭载了更快、更大容量的 HBM3e 内存。创新款 Supermicro 液冷 4U 服务器搭载了 NVIDIA HGX 8-GPU,使每个机架的计算密度翻倍,高达 80 千瓦/机架,并降低了总体拥有成本 (TCO)

Supercomputing Conference (SC23) - Supermicro, Inc.(纳斯达克股票代码:SMCI) 作为人工智能、云技术、存储和 5G/边缘整体 IT 解决方案供应商,借助对新款内置 H200 Tensor Core GPU 的 NVIDIA HGX H200 提供支持,进一步拓展其人工智能的产品线。 作为业界领先的人工智能平台,Supermicro 涵盖了 8U 和 4U 通用 GPU 系统,可随时应用 HGX H200 8-GPU 和 4-GPU。与 NVIDIA H100 Tensor Core GPU 相比,其具有近 2 倍的容量和 1.4 倍更高带宽的 HBM3e 内存。另外,Supermicro NVIDIA MGX 系统拥有最丰富的产品组合,并兼容即将推出的搭载 HBM3e 内存的 NVIDIA Grace Hopper 超级芯片。凭借其空前的性能、可扩展性和可靠性,Supermicro 的机架规模人工智能解决方案可在满足日益增长的模型尺寸需求的同时,快速提升高强度生成式人工智能、大语言模型 (LLM) 训练以及高性能计算应用的算力。 借助积木式架构,Supermicro 能够快速将新技术推向市场,让客户更快提升生产效率。

https://mma.prnasia.com/media2/2274161/03_2023__4U_8GPU_H200_1080.jpg?p=medium600
Supermicro 4U 8GPU H200

Supermicro 充分借助最新的 Supermicro 液冷解决方案,采用液冷 4U 系统,并基于 NVIDIA HGX H100 8-GPU 系统,推出了业界最高密度的服务器。作为业界最紧凑的高性能 GPU 服务器,其能够帮助数据中心工作人员减降低对占地面积的需求,并节约能源成本,同时提供顶级的单机架高性能人工智能训练能力。利用最高密度的 GPU 系统,组织可通过采用尖端的液冷解决方案降低其总体拥有成本 。

Supermicro 总裁兼行政总裁 Charles Liang 表示:"Supermicro 与 NVIDIA 携手设计了先进的系统,用于人工智能训练和高性能计算应用" 。"借助积木式架构,我们能够在市场上率先推出最新科技,让客户更迅速地部署生成式人工智能。我们能够利用全球化生产设施,更快地向客户交付这些新系统。新系统采用搭载了 NVIDIA® NVLink™ 和 NVSwitch 高速 GPU-GPU 互联技术(速度高达 900GB/s)的 NVIDIA H200 GPU,在我们的机架规模人工智能解决方案中,可为每个节点提供高达 1.1TB 的高带宽 HBM3e 内存,以实现 LLM 和生成式人工智能的最佳模型并行性能。同时,对于能提供全球最为紧凑的 NVIDIA HGX 8-GPU 液冷服务器,直接将我们的机架规模人工智能解决方案密度翻倍,并降低能源成本,为当今速度更快的数据中心实现绿色计算,我们深感兴奋。"

深入了解搭载 NVIDIA GPU 的 Supermicro 服务器

Supermicro 设计制造众多不同外形尺寸的人工智能服务器。广受欢迎的 8U 和 4U 通用 GPU 系统搭载了四通道和八通道 NVIDIA HGX H100 GPU,现已支持新款 H200 GPU,可在更短时间内完成更大规模语言模型的训练。每个 NVIDIA H200 GPU 都搭载了 141 GB 内存,带宽高达 4.8 TB/s。

"Supermicro 即将推出的服务器设计采用了 NVIDIA HGX H200,能够帮助加速生成式人工智能和高性能计算的工作负载,让企业和机构能够充分发挥其人工智能架构的能力," NVIDIA 的高性能计算、人工智能和量子运算数据中心产品解决方案总监 Dion Harris 表示,"搭载高速 HBM3e 内存的 NVIDIA H200 GPU 将能够应对各种来自工作负载的海量数据。"

此外,近期推出的 Supermicro MGX 服务器搭载了 NVIDIA GH200 Grace Hopper 超级芯片,专为整合搭载 HBM3e 内存的 NVIDIA H200 GPU 解决方案而设计。

最新的 NVIDIA GPU 使得加速当今和未来的大型语言模型 (LLM) 成为可能,这些模型具有的数千亿的参数使其能够适应更紧凑、高效的集群,从而在更短时间内训练生成式人工智能。此外,其还支持在单个系统中容纳多个更大的模型,用于实时 LLM 推理,从而服务于数百万用户的生成式人工智能。

Supermicro 将在 SC23 上展示其最新产品——配备八通道 NVIDIA HGX H100 及最新的液冷创新技术的 4U 通用 GPU 系统,用于进一步提升密度和能效,进而推动人工智能的演化。搭配 Supermicro 业界领先的 GPU 和 CUP 冷却板、专为绿色计算设计的 CDU(冷量分配单元)和 CDM(冷量分配歧管),其新款液冷 4U 通用 GPU 系统同样可搭载八通道 NVIDIA HGX H200,并且,通过 Supermicro全集成的液冷机架解决方案和我们的 L10、L11 和 L12 验证测试,其能够大幅降低数据中心的体积、削减能源成本并减少部署中的各种阻碍。

如需了解更多信息,敬请莅临 Supermicro 在 SC23 上的展位

关于 Super Micro Computer, Inc.

Supermicro(纳斯达克股票代码: SMCI)是应用优化整体 IT 解决方案的全球领军企业。成立于加州圣何塞,并在该地运营,Supermicro 致力于为企业、云计算、人工智能和 5G 电信/边缘 IT 基础设施提供领先于市场的创新解决方案。我们是服务器、人工智能、存储、物联网、交换机系统、软件和支持服务的整体 IT 解决方案制造商。Supermicro 的主板、电源和机箱设计专业知识,更进一步推动了我们的研发和生产,为我们的全球客户提供了从云端到边缘的下一代创新技术。我们的产品均在公司内部(包括美国、亚洲和荷兰)完成设计和制造,通过全球运营实现规模和效益,从而优化总体拥有成本 (TCO),并能够(通过绿色计算)减少对环境的影响。获奖无数的 Server Building Block Solutions® 通过我们灵活可重复使用的构建块,为客户提供了丰富的可选系统产品系列,用于优化其确切的工作负载和应用。这些构建块支持全系列外形规格、处理器、内存、GPU、存储、网络、电源和冷却解决方案(空调、自然空气冷却或液体冷却)。

文章来源于:ECCN    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。

我们与500+贴片厂合作,完美满足客户的定制需求。为品牌提供定制化的推广方案、专属产品特色页,多渠道推广,SEM/SEO精准营销以及与公众号的联合推广...详细>>

利用葫芦芯平台的卓越技术服务和新产品推广能力,原厂代理能轻松打入消费物联网(IOT)、信息与通信(ICT)、汽车及新能源汽车、工业自动化及工业物联网、装备及功率电子...详细>>

充分利用其强大的电子元器件采购流量,创新性地为这些物料提供了一个全新的窗口。我们的高效数字营销技术,不仅可以助你轻松识别与连接到需求方,更能够极大地提高“闲置物料”的处理能力,通过葫芦芯平台...详细>>

我们的目标很明确:构建一个全方位的半导体产业生态系统。成为一家全球领先的半导体互联网生态公司。目前,我们已成功打造了智能汽车、智能家居、大健康医疗、机器人和材料等五大生态领域。更为重要的是...详细>>

我们深知加工与定制类服务商的价值和重要性,因此,我们倾力为您提供最顶尖的营销资源。在我们的平台上,您可以直接接触到100万的研发工程师和采购工程师,以及10万的活跃客户群体...详细>>

凭借我们强大的专业流量和尖端的互联网数字营销技术,我们承诺为原厂提供免费的产品资料推广服务。无论是最新的资讯、技术动态还是创新产品,都可以通过我们的平台迅速传达给目标客户...详细>>

我们不止于将线索转化为潜在客户。葫芦芯平台致力于形成业务闭环,从引流、宣传到最终销售,全程跟进,确保每一个potential lead都得到妥善处理,从而大幅提高转化率。不仅如此...详细>>