高带宽内存 (HBM) 在上市不到 10 年的时间里取得了长足的进步。它极大地提高了数据传输速率,将容量提高了几个数量级,并获得了大量的功能。据DigiTimes援引首尔经济报道称,还有另一个重大变化即将到来,而且这一变化将是巨大的:下一代 HBM4 内存堆栈将采用 2048 位内存接口 。
将接口宽度从每堆栈 1024 位增加到每堆栈 2048 位将是 HBM 内存技术有史以来最大的变化。自 2015 年以来,所有 HBM 堆栈都采用 1024 位接口。但由于该信息来自非官方来源,因此我们应该对此持保留态度。
目前尚不清楚存储器制造商是否能够为具有 2048 位接口的 HBM4 堆栈维持 HBM3E 堆栈支持的约 9 GT/s 的数据传输速率,但如果可以,总线宽度的增加将使峰值带宽从 1.15 翻倍每堆栈 TB/s 至每堆栈 2.30 TB/s。目前还不清楚每堆栈内存接口的加宽将如何影响处理器和中介层将处理的堆栈数量。
当今的大型处理器,例如 Nvidia 的 H100,使用大型 6144 位宽接口支持 6 个 1024 位宽 HBM3/HBM3E 已知良好堆叠芯片 (KGSD),但单个 KGSD 的接口是否增加到 2048 位,还有待观察处理器开发人员是否会继续使用相同数量的 HBM4 堆栈,还是减少它们。
还有人担心,具有 2048 位接口的 KGSD 的良率将会下降,因为生产具有数千个硅通孔 (TSV) 的存储器堆栈变得更加困难,但报告称,三星和 SK 海力士有信心他们将新型存储器能够实现“100%”的良率。
目前,具有 2048 位接口的内存堆栈看起来非常棒,我们会谨慎考虑此信息。然而,无风不起浪。
HBM 市场将增长近一倍
SK海力士公司和三星电子公司相信,由于生成式人工智能的轰动,新的存储芯片市场即将复兴即将来临,这正在加速定制、高性能下一代芯片的开发。
SK海力士DRAM营销主管Park Myung-soo在一次发布会上表示:“人工智能服务器需要 500 GB 或更大的高带宽内存 (HBM) 芯片以及至少 2 TB 的 DDR5 芯片。” 2023 年韩国投资周 (KIW) 半导体会议周一在首尔开幕。
“人工智能竞争是存储芯片需求增长的强劲推动力。”
SK海力士预测,AI芯片热潮带动HBM市场到2027年将达82%的复合年增长。
三星电子和其同城竞争对手的观点,预计明年HBM市场将比今年增长一倍以上。
三星电子DRAM产品与技术执行副总裁Hwang Sang-joon同日在KIW 2023上表示:“我们客户当前的(HBM)订单决定比去年增加了一倍多。”“无缝HBM生产、封装和制造能力将比较。”