3 月 14 日消息,集邦咨询近日发布报告,表示 2024 年 HBM 内存市场主流规格为 HBM3,不过英伟达即将推出的 B100 或 H200 加速卡将采用 HBM3e 规格。
消息称目前 AI 加速卡除了 CoWoS 封装瓶颈之外,另一个重要限制就是 HBM,这其中的主要原因是 HBM 生产周期较 DDR5 更长,投片到产出、封装完成需要至少 2 个季度。
英伟达目前主流 H100 加速卡采用 HBM3 内存,主要供应商为 SK 海力士,目前无法满足整体 AI 市场需求。集邦咨询表示三星于 2023 年年末,以 1Znm 产品加入英伟达供应链,尽管比重仍小,但可视为三星在 HBM 领域的重大突破。
由于三星是 AMD 长期以来最重要的策略供应伙伴,2024 年第一季,三星 HBM3 产品也陆续通过 AMD MI300 系列验证,其中包含其 8h 与 12h 产品,故自 2024 年第一季以后,三星 HBM3 产品将会逐渐放量。
而自 2024 年起,市场关注焦点即由 HBM3 转向 HBM3e,预计下半年将逐季放量,并逐步成为 HBM 市场主流。据 TrendForce 集邦咨询调查,第一季由 SK 海力士率先通过验证,美光紧跟其后,并于第一季底开始递交 HBM3e 量产产品,以搭配计划在第二季末铺货的 NVIDIA H200。
三星由于递交样品的时程较其他两家供应商略晚,预计其 HBM3e 将于第一季末前通过验证,并于第二季开始正式出货。