ChatGPT效应下人工智能话题火热,带动HBM(高带宽存储器)持续受到关注。全球市场研究机构TrendForce集邦咨询预估2023年HBM需求量将年增58%,2024年有望再成长约30%。
HBM具备高带宽、高容量、低延时与低功耗等优势,可以加快AI数据处理速度,更适用于ChatGPT等高性能计算场景。基于HBM独特优势,今年以来存储大厂持续发力HBM。
最新消息显示,三星计划投资1万亿韩元扩大其HBM产能,以满足英伟达和AMD等公司的客户需求。韩国ET News指出,三星的目标是到2024年底将HBM产能翻一番,并且已经下了主要设备的订单。据悉,WSS(晶圆承载系统)的供应商包括东京电子和苏斯微技术。
HBM由多个DRAM垂直连接而成,厂商需要增加更多后端工艺设备来提高HBM出货量。因此,报道指出三星计划在其半导体后端工艺的生产基地韩国天安工厂安装WSS设备,以提升HBM出货量。
资料显示,三星对HBM的布局从HBM2开始,目前,三星已经向客户提供了HBM2和HBM2E产品。2022年三星表示HBM3已量产。另据媒体报道,三星已于今年4月26日向韩国专利信息搜索服务提交“Snowbolt”商标申请,预估该商标将于今年下半年应用于DRAM HBM3P产品。
作为新一代内存解决方案,HBM市场被三大DRAM原厂牢牢占据。集邦咨询调查显示,2022年三大原厂HBM市占率分别为SK海力士50%、三星约40%、美光约10%。
集邦咨询指出,2023下半年伴随NVIDIA H100与AMD MI300的搭载,三大原厂也已规划相对应规格HBM3的量产。其中,在今年将有更多客户导入HBM3的预期下,SK海力士作为目前唯一量产新世代HBM3产品的供应商,其整体HBM市占率可望藉此提升至53%,而三星、美光则预计陆续在今年底至明年初量产,HBM市占率分别为38%及9%。
封面图片来源:拍信网