美光近日宣布已开始量产其 HBM3E 高带宽内存解决方案。英伟达 H200 Tensor Core GPU 将采用美光 8 层堆叠的 24GB 容量 HBM3E 内存,并于 2024 年第二季度开始出货。
美光 HBM3E 引脚速率超过 9.2Gb/s,提供超过1.2TB/s的内存带宽,美光 HBM3E 功耗比竞品低约 30%,美光 HBM3E 目前提供 24 GB 容量,使数据中心能够无缝扩展其人工智能应用。
此外,美光将于 2024 年3月出样12层堆叠的 36GB 容量 HBM3E,提供超过 1.2TB/s 的性能。同时,美光将赞助 3 月 18 日开幕的英伟达 GTC 全球人工智能大会,届时将分享更多前沿 AI 内存产品系列和路线图。
文章来源于:电子工程世界 原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。