大厂19日清晨在美国加州圣荷西召开的GTC2024,发表号称迄今最强AI芯片GB200,今年稍晚出货。GB200采新Blackwell架构,创办人暨执行长黄仁勋表示,两年前Hopper架构已非常出色,但现在需要更强大的GPU。
本文引用地址:每两年更新频率,升级一次GPU架构,大幅提升AI芯片性能。英伟达2022年发表Hopper架构H100AI芯片后,引领全球AI市场风潮。如今再推采Blackwell架构的AI芯片性能更强大,更擅长处理AI任务,Blackwell架构是以数学家David Harold Blackwell之名命名。
黄仁勋表示,Blackwell架构GPU的AI运算性能在FP8及NEW FP6都可达20petaflops,是前一代Hopper架构运算性能8petaflops的2.5倍。NEWFP4更可达40petaflops,是前代Hopper架构GPU运算性能8petaflops5倍。取决于各种Blackwell架构GPU设备的记忆体容量和频宽配置,工作运算执行力的实际性能可能会更高。黄仁勋强调,有额外处理能力,使人工智慧企业训练更大更复杂的模型。
Blackwell架构GPU的体积庞大,采4纳米(4NP)打造,整合两个独立制造的裸晶(Die),共2,080亿个电晶体,透过NVLink5.0介面像拉链绑住芯片。英伟达用10TB/sec NVLink5.0连接两块裸晶,官方称介面为NV-HBI。Blackwell complex的NVLink5.0介面为1.8TB频宽,是前代Hopper架构GPU NVLink4.0介面速度的两倍。
英伟达最新GB200 AI芯片,含两个Blackwell GPU和一个Arm架构Grace CPU,推理模型性能比H100提升30倍,成本和能耗降至25分之一。
英伟达还对有大型需求的企业提供服务器成品,提供完整服务器出货,如GB200 NVL72服务器,提供36个CPU和72个Blackwell架构GPU,完善一体水冷散热方案,可实现总计720petaflops的AI训练性能或1,440petaflops推理性能。电缆长度累计近2英里,共5,000条独立电缆。
亚马逊AWS计划采购2万片GB200芯片组建的服务器集群,部署27兆个参数模型。除了亚马逊AWS,DELL、Alphabet、Meta、微软、OpenAI、Oracle和TESLA成为Blackwell系列的采用者之一。