美光量产12层HBM3E 36GB芯片,产品正在进行客户验证

发布时间:2024-09-11  

【导读】美光推出适用于下一代人工智能(AI)GPU的量产版12层HBM3E芯片,内存堆栈容量高达36GB,速度超过9.2Gb/s。美光表示,目前正在将可供制造的(production-capable)12层第五代HBM(HBM3E)送交给AI产业链重要合作伙伴,以进行验证程序。


美光量产12层HBM3E 36GB芯片,产品正在进行客户验证


美光推出适用于下一代人工智能(AI)GPU的量产版12层HBM3E芯片,内存堆栈容量高达36GB,速度超过9.2Gb/s。美光表示,目前正在将可供制造的(production-capable)12层第五代HBM(HBM3E)送交给AI产业链重要合作伙伴,以进行验证程序。


美光9月9日正式宣布推出12层堆栈的HBM3E内存。新产品具有36GB容量,旨在用于AI和HPC(高性能计算)工作负载的前沿处理器,例如英伟达的H200和B100/B200 GPU。


美光的12层HBM3E内存堆栈拥有36GB容量,比之前的8层版本(24GB)高出50%。容量增加使数据中心能够在单个处理器上运行更大的AI模型。此功能消除了频繁卸载CPU的需要,减少了GPU之间的通信延迟,加快了数据处理速度。


在性能方面,美光的12层HBM3E堆栈可提供超过1.2TB/s的内存带宽,数据传输速率超过9.2Gb/s。据美光称,该公司的HBM3E不仅提供的内存容量比竞争对手高出50%,功耗也低于8层HBM3E堆栈。


美光的12层HBM3E包含一个完全可编程的内存内置自检(MBIST)系统,以确保为客户提供更快的产品上市时间和可靠性。该技术可以全速模拟系统级流量,从而对新系统进行全面测试和更快的验证。


美光的HBM3E内存设备与台积电的CoWoS封装技术兼容,该技术广泛用于英伟达的H100和H200等AI处理器封装中。


据悉,美光已开始开发其下一代内存解决方案,包括HBM4和HBM4E。这些即将推出的内存类型将继续满足AI处理器(包括基于Blackwell和Rubin架构的英伟达GPU)对高级内存日益增长的需求。


免责声明:本文为转载文章,转载此文目的在于传递更多信息,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请联系小编进行处理。


推荐阅读:

文章来源于:电子元件技术    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。

我们与500+贴片厂合作,完美满足客户的定制需求。为品牌提供定制化的推广方案、专属产品特色页,多渠道推广,SEM/SEO精准营销以及与公众号的联合推广...详细>>

利用葫芦芯平台的卓越技术服务和新产品推广能力,原厂代理能轻松打入消费物联网(IOT)、信息与通信(ICT)、汽车及新能源汽车、工业自动化及工业物联网、装备及功率电子...详细>>

充分利用其强大的电子元器件采购流量,创新性地为这些物料提供了一个全新的窗口。我们的高效数字营销技术,不仅可以助你轻松识别与连接到需求方,更能够极大地提高“闲置物料”的处理能力,通过葫芦芯平台...详细>>

我们的目标很明确:构建一个全方位的半导体产业生态系统。成为一家全球领先的半导体互联网生态公司。目前,我们已成功打造了智能汽车、智能家居、大健康医疗、机器人和材料等五大生态领域。更为重要的是...详细>>

我们深知加工与定制类服务商的价值和重要性,因此,我们倾力为您提供最顶尖的营销资源。在我们的平台上,您可以直接接触到100万的研发工程师和采购工程师,以及10万的活跃客户群体...详细>>

凭借我们强大的专业流量和尖端的互联网数字营销技术,我们承诺为原厂提供免费的产品资料推广服务。无论是最新的资讯、技术动态还是创新产品,都可以通过我们的平台迅速传达给目标客户...详细>>

我们不止于将线索转化为潜在客户。葫芦芯平台致力于形成业务闭环,从引流、宣传到最终销售,全程跟进,确保每一个potential lead都得到妥善处理,从而大幅提高转化率。不仅如此...详细>>