业内消息,近日在超级计算大会上发布了全新一代号称全球最强的人工智能() H200 及相应的产品线。该芯片将被用于数据中心和超级计算机,处理诸如天气和气候预测、药物发现、量子计算等任务。
此次发布的关键产品是基于英伟达的 “Hopper” 架构的 HGX H200 GPU,是 H100 GPU 的继任者,也是该公司第一款使用 HBM3e 内存的芯片,这种内存速度更快、容量更大,因此更适合大型语言模型。
该芯片相较于上一代有了质的飞跃,比 H100/H200 的性能直接提升了 60%-90%。英伟达表示,H200 凭借 HBM3e 以每秒 4.8 TB 的速度提供 141GB 的内存,容量几乎是 A100 的两倍,带宽则增加了 2.4 倍。
英伟达表示,HGX H200 在 Llama 2(700 亿参数 LLM)上的推理速度比 H100 快了一倍。HGX H200 将以 4 路和 8 路的配置提供,与 H100 系统中的软件和硬件兼容。此外,还适用于各种数据中心(本地、云、混合云和边缘),将于明年二季度推出。
英伟达此次发布的另一个关键产品是 GH200 Grace Hopper “超级芯片(superchip)”,其将 HGX H200 GPU 和基于 Arm 的英伟达 Grace CPU 通过该公司的 NVLink-C2C 互连结合起来,官方称其专为超级计算机设计。
GH200 将被用于“全球研究中心、系统制造商和云提供商的 40 多台 AI 超级计算机”,其中包括戴尔、Eviden、惠普企业(HPE)、联想、QCT 和 Supermicro。其中值得注意的是,HPE 的 Cray EX2500 超级计算机将使用四路 GH200,可扩展到数万个 Grace Hopper 超级芯片节点。
值得一提的是,德国 Jülich 工厂的 JUPITER 明年将安装世界上最强大的 系统(Grace Hopper 超级计算机),因为其使用了液冷架构,其增强模块由近 24000 个英伟达 GH200 超级芯片组成,这些通过 Quantum-2 InfiniBand 网络平台互连。