高端AI芯片提升HBM需求 2024年先进封装产能将提升30%以上

发布时间:
来源: 电子元件技术

【导读】市调机构TrendForce集邦咨询研究指出,2023年ChatBOT等生成式AI应用带动AI服务器增长,大型云端厂商陆续采购高端AI服务器,以持续训练及优化其AI分析模型。而高端AI服务器需采用的高端AI芯片,将提升2023-2024年高带宽存储器(HBM)的需求,并将驱动先进封装产能2024年增长30%~40%。


高端AI芯片提升HBM需求 2024年先进封装产能将提升30%以上

图片来源于网络


市调机构TrendForce集邦咨询研究指出,2023年ChatBOT等生成式AI应用带动AI服务器增长,大型云端厂商陆续采购高端AI服务器,以持续训练及优化其AI分析模型。而高端AI服务器需采用的高端AI芯片,将提升2023-2024年高带宽存储器(HBM)的需求,并将驱动先进封装产能2024年增长30%~40%。


TrendForce指出,包含微软、谷歌、AWS、百度、字节跳动等陆续购买AI服务器。为提升整体AI服务器的系统计算性能以及存储器传输带宽等,英伟达、AMD、英特尔等高端AI芯片中大多选择搭载HBM。


目前英伟达的A100及H100,各搭载达80GB的HBM2e及HBM3,在其最新整合CPU及GPU的Grace Hopper芯片中,单颗芯片HBM搭载容量再提升20%,达96GB。


另外,AMD的MI300也搭配HBM3,其中,MI300A容量与前一代相同为128GB,更高端MI300X则达192GB,提升了50%。


TrendForce集邦咨询预估,2023年市场上主要搭载HBM的AI加速芯片,搭载HBM总容量将达2.9亿GB,增长率近6成,2024年将持续成长3成以上。


免责声明:本文为转载文章,转载此文目的在于传递更多信息,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请联系小编进行处理。


推荐阅读:


文章来源于: 电子元件技术 原文链接

本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。