美光将于2024年初向英伟达交付HBM3E内存

2023-10-06  

【导读】美光公司重申,计划在 2024 年初开始大批量出货其 HBM3E 内存,同时还透露,英伟达是其新内存的主要客户之一。同时,该公司强调其新产品受到了整个行业的极大关注,并暗示英伟达很可能不是唯一最终使用美光 HBM3E 的客户。


美光将于2024年初向英伟达交付HBM3E内存


美光公司重申,计划在 2024 年初开始大批量出货其 HBM3E 内存,同时还透露,英伟达是其新内存的主要客户之一。同时,该公司强调其新产品受到了整个行业的极大关注,并暗示英伟达很可能不是唯一最终使用美光 HBM3E 的客户。


美光公司总裁兼首席执行官 Sanjay Mehrotra 在公司财报电话会议上表示:"我们推出的 HBM3E 产品受到了客户的强烈关注和热捧。"

美光在 HBM 市场上处于劣势,仅占 10% 的市场份额,而领先于竞争对手三星和 SK Hynix 推出 HBM3E(该公司也称之为 HBM3 Gen2)对美光来说是一件大事。该公司显然对其 HBM3E 寄予了厚望,因为这很可能使其领先于竞争对手(赢得市场份额)提供优质产品(提高收入和利润)。

通常情况下,内存制造商往往不会透露其客户的名称,但这次美光强调,其 HBM3E 是客户路线图的一部分,并特别提到英伟达(NVIDIA)是其盟友。与此同时,NVIDIA 迄今公布的唯一支持 HBM3E 的产品是其 Grace Hopper GH200 计算平台,该平台采用了 H100 计算 GPU 和 Grace CPU。

Mehrotra说:"在整个开发过程中,我们一直与客户密切合作,并正在成为他们人工智能路线图中紧密结合的合作伙伴。美光HBM3E目前正处于英伟达计算产品的资格认证阶段,这将推动HBM3E驱动的人工智能解决方案的发展。"

美光的24 GB HBM3E模块基于8个堆叠的24Gbit内存模块,采用公司的1β(1-beta)制造工艺。这些模块的日期速率高达 9.2 GT/秒,使每个堆栈的峰值带宽达到 1.2 TB/秒,比目前最快的 HBM3 模块提高了 44%。同时,该公司不会止步于基于 8-Hi 24 Gbit 的 HBM3E 组件。该公司已宣布计划在开始量产 8-Hi 24GB 堆叠之后,于 2024 年推出容量更高的 36GB 12-Hi HBM3E 堆叠。

美光首席执行官补充说:"我们预计在 2024 年初开始 HBM3E 的量产,并在 2024 财年实现可观的收入。"cnBeta


免责声明:本文为转载文章,转载此文目的在于传递更多信息,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请联系小编进行处理。


推荐阅读:


文章来源于:电子元件技术    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。