HBM芯片在通用内存市场的占比从去年的8%增长到15%,主要受到人工智能(AI)、高性能计算(HPC)和数据中心需求的驱动【】。HBM通过3D堆叠技术提供了高带宽和低功耗的优势,成为许多高性能应用的首选。
近期,美光科技(Micron)宣布其HBM生产产能已全部售罄直至2025年,这一消息紧随SK海力士(SK Hynix)的步伐,后者先前透露其HBM产能已被预订至明年。
HBM市场在未来几年将继续快速增长,各大厂商也在不断提升产能以满足市场需求。美光和SK海力士是HBM市场的主要玩家,目前三星处于落后地位,Fitch Ratings的高管Shelley Jang表示:“三星仍需要时间来追赶。在生产HBM上存在技术差异。短期内,SK海力士可能会在市场上保持优势。”
SemiAnalysis 首席分析师 Dylan Patel 今年早些时候告诉《EE Times》,SK Hynix 在 HBM 领域拥有领先的市场份额,HBM3 市场份额超过 85%,总体 HBM 市场份额超过 70%。
主要玩家产品如下:
- 美光的HBM3E内存提供了超过1.2 TB/s的带宽,HBM3E 芯片将被 Nvidia 采用,为后者的 H200 Tensor 芯片提供动力。HBMnext被猜测是美光的HBM 4。
- SK海力士的HBM3E则在相同封装尺寸下提供了36GB的最大容量和1.18TB/s的带宽。3月份SK海力士宣布了HBM3E开始量产,将与台积电合作开发HBM4产品。【】
- 三星的HBM3E内存采用12层堆叠技术,提供36GB的容量和1.28TB/s的带宽,是目前市场上容量最大的HBM3E产品。
美光在最近一个财季(3月至5月)实现了68.11亿美元的营收,同比增长81.5%,营业利润达到7.19亿美元。其中,DRAM产品线贡献了47亿美元的收入,占比69%,而这部分收入中亦包括了HBM的销售。
值得注意的是,美光HBM3E 8H型号,单季度就为其带来了超过1亿美元的营收,且美光声称其HBM产品相较于竞品在功耗上降低了30%。此外,美光还计划于2025年启动HBM3E 12H的生产,尽管这一时间点略晚于部分竞争对手,但公司预计HBM业务将在明年为公司带来数十亿美元的收入,并预期其HBM市场份额将与DRAM相媲美【】。
从长远来看,美光预计其在 HBM 市场的份额将在 2025 年左右与其在整个 DRAM 市场的份额大致相同。
英特尔也已公开表示对HBM集成的兴趣,并可能在未来的产品设计中采用HBM,以提升系统性能。同时,AMD一直是HBM技术的积极采用者,其产品中已多次集成HBM,未来亦有望继续深化此方面的应用。
下一代HBM4会有哪些变化?
三星、SK海力士和美光都在争相通过技术创新和产能扩张来占据市场优势,特别是在面对即将到来的AI和HPC市场需求增长。
技术迭代加速,HBM市场的竞争格局将更加复杂多变。在下一代的HBM4内存开发上,韩国存储芯片大厂【】。
- 接口宽度。接口宽度从每堆栈1024位增加到每堆栈2048位,为HBM4带来突破性变革。采用2048位内存接口,理论上也可以使传输速度再次翻倍。例如,英伟达的旗舰Hopper H100 GPU,搭配的六颗HBM3达到6144-bit位宽。如果内存接口翻倍到2048位,英伟达理论上可以将芯片数量减半到三个,并获得相同的性能。
- 层数。HBM4在堆栈的层数上也有所变化,除了首批的12层垂直堆叠,预计2027年存储器厂商还会带来16层垂直堆叠——K海力士将继续采用先进的MR-MUF技术,从而实现 16 层堆叠。。作为对比,HBM3的堆叠层数主要为8层/12层。
- 更低的功耗。HBM4E有望少系统能耗,降低发热,延长设备的电池寿命。与此同时,HBM4E 内存有望在各种领域得到应用,包括人工智能、高性能计算、数据中心、图形处理等领域,为这些领域带来更高的性能和效率。
- 工艺。三星还计划来生产对应逻辑Die,并且封装方式将从基于Bump连接的CoW(Chip on Wafer)变为基于Pad连接的Bumpless形式。
HBM4量产时间预测
HBM由SK海力士于2014年开发,2018年推出HBM2(第二代),2020年推出HBM2E(第三代),2022年推出HBM3(第四代),今年又推出了HBM3E(第五代)。
“自第一代 HBM 开发以来,每两年开发一代,但从 HBM3E 开始,每年都在更新换代。”SK 海力士表示。HBM4(第六代)推出会更快。
- SK 海力士计划在 2025 年下半年推出采用 12 层 DRAM 堆叠的首批 HBM4 产品,而 16 层堆叠 HBM 稍晚于 2026 年推出。时间将“与'NVIDIA加速AI加速器发布周期'保持一致”。
- 三星规划在2025年生产HBM 4样品,2026年量产。
- 美光预计将在2026年推出12和16层堆叠的HBM4,带宽超过1.5TB/ s;到2027~2028年,还将发布12层和16层堆叠的HBM4E,带宽可达2TB/s以上。
有趣的是,根据 Mehrotra 的说法,今年 DRAM 和 HBM 的行业供应将低于需求,部分原因是 HBM 严重蚕食 DRAM。
在给定的内存工艺节点上,HBM3E 消耗的晶圆是普通 DDR5 内存的 3 倍,才能生产出给定容量。而 HBM4 的良率预计会更差,因为封装的复杂性和对内存的更高性能要求(这也会进一步降低最终 HBM 封装的良率)。
所以,厂商的诀窍在于通过更复杂的产品赚钱,Nvidia、AMD、英特尔和其他公司在未来几年或愿意为 HBM3E、HBM4 和 HBM4E 内存多花点钱。