【导读】三星2月27日宣布开发出业界首款12层堆叠HBM3E 12H高带宽存储芯片,这也是迄今为止容量最高的HBM产品,达36GB,带宽高达1280GB/s。与8层堆叠HBM3产品相比,这款新品在容量、带宽方面都提高了50%以上,可显著提高人工智能(AI)训练、推理速度。
三星2月27日宣布开发出业界首款12层堆叠HBM3E 12H高带宽存储芯片,这也是迄今为止容量最高的HBM产品,达36GB,带宽高达1280GB/s。与8层堆叠HBM3产品相比,这款新品在容量、带宽方面都提高了50%以上,可显著提高人工智能(AI)训练、推理速度。
三星电子存储产品规划执行副总裁Yongcheol Bae表示,业界AI服务供应商越来越需要更高容量的HBM,而我们开发的全新HBM3E 12H产品正是为满足这一需求设计的。
技术方面,三星HBM3E 12H采用先进的热压非导电薄膜(TC NCF),使12层产品具有与8层HBM芯片相同的高度,以满足当前HBM封装要求。该技术预计将在未来带来更多优势,特别是更高层数堆叠方面,因为业界正在努力减轻芯片裸片变薄带来的翘曲问题。三星不断降低NCF材料的厚度,并实现了当前业界最小的芯片间隙(7微米),同时消除了层间空隙。与此前的HBM3 8H产品相比,新技术的进步使得垂直密度提高了20%以上。
三星表示,TC NCF技术还能够通过在芯片之间使用不同大小的凸块,来改善HBM的热性能。在芯片键合层面,较小的凸块用于信号传输区域,而较大的凸块用于需要散热的区域;该方法还有助于提高产品产量。
集微网了解到,英伟达目前的H200旗舰AI芯片宣布采用HBM3E存储,下一代B100预计将同样采用HBM3E,目前三大存储芯片巨头三星、SK海力士、美光均重点发力HBM。
三星表示,HBM3E 12H将成为未来最佳解决方案,并降低数据中心总成本(TCO)。性能方面,新产品与HBM3 8H相比,人工智能训练平均速度可提高34%,用于推理服务支持的用户数量最高可增加11.5倍以上。
目前三星已开始向客户提供HBM3E 12H样品,计划于今年上半年量产。
免责声明:本文为转载文章,转载此文目的在于传递更多信息,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请联系小编进行处理。
推荐阅读: