【导读】美光近日宣布已开始量产其 HBM3E 高带宽内存解决方案。英伟达 H200 Tensor Core GPU 将采用美光 8 层堆叠的 24GB 容量 HBM3E 内存,并于 2024 年第二季度开始出货。
美光近日宣布已开始量产其 HBM3E 高带宽内存解决方案。英伟达 H200 Tensor Core GPU 将采用美光 8 层堆叠的 24GB 容量 HBM3E 内存,并于 2024 年第二季度开始出货。
美光 HBM3E 引脚速率超过 9.2Gb/s,提供超过1.2TB/s的内存带宽,美光 HBM3E 功耗比竞品低约 30%,美光 HBM3E 目前提供 24 GB 容量,使数据中心能够无缝扩展其人工智能应用。
此外,美光将于 2024 年3月出样12层堆叠的 36GB 容量 HBM3E,提供超过 1.2TB/s 的性能。同时,美光将赞助 3 月 18 日开幕的英伟达 GTC 全球人工智能大会,届时将分享更多前沿 AI 内存产品系列和路线图。
免责声明:本文为转载文章,转载此文目的在于传递更多信息,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请联系小编进行处理。
推荐阅读:
相关文章









