【导读】据报道,英伟达AI GPU H200上游芯片端于Q2下旬起进入量产期,预计在Q3以后大量交货。但英伟达Blackwell平台上市时程提前至少一到两个季度,影响终端客户采购H200的意愿。
据报道,英伟达AI GPU H200上游芯片端于Q2下旬起进入量产期,预计在Q3以后大量交货。但英伟达Blackwell平台上市时程提前至少一到两个季度,影响终端客户采购H200的意愿。
供应链指出,目前待出货的客户端订单仍多集中于HGX架构的H100,H200比重有限,Q3将量产交货的H200主要为英伟达DGX H200;至于B100则已有部分能见度,预计出货时程落在明年上半年。
H200作为H100 GPU的迭代升级产品,基于先进的Hopper架构,首次采用了HBM3e高带宽内存技术,实现了更快的数据传输速度和更大的内存容量,尤其针对大型语言模型应用表现出显著优势。根据英伟达官方发布的数据,在处理诸如Meta公司Llama2这样的复杂大语言模型时,H200相较于H100在生成式AI输出响应速度上最高提升了45%。
H200被定位为英伟达在AI计算领域的又一里程碑式产品,不仅继承了H100的优势,还在内存性能上取得了重大突破。随着H200的商业化应用,对高带宽内存的需求预期将持续攀升,这将进一步带动整个AI算力硬件产业链的发展,特别是HBM3e相关供应商的市场机会。
而B100 GPU将采用液冷散热技术。散热成为芯片性能提升的关键因素,英伟达H200 GPU的TDP为700W,保守估计B100的TDP接近千瓦,传统风冷或不能满足芯片工作过程中对于散热需求,散热技术将全面向液冷革新。
英伟达CEO称,从B100 GPU开始未来所有产品的散热技术都将由风冷转为液冷。银河证券认为,英伟达推出B100GPU在性能方面至少是H200的两倍,将超过H100的四倍,而芯片性能的提升一方面来源于先进制程,另一方面散热也成为芯片性能提升的关键因素,英伟达H200 GPU的TDP为700W,保守估计B100的TDP接近千瓦,传统风冷或不能满足芯片工作过程中对于散热需求,散热技术将全面向液冷革新。
推荐阅读: