【导读】市调机构TrendForce集邦咨询研究指出,2023年ChatBOT等生成式AI应用带动AI服务器增长,大型云端厂商陆续采购高端AI服务器,以持续训练及优化其AI分析模型。而高端AI服务器需采用的高端AI芯片,将提升2023-2024年高带宽存储器(HBM)的需求,并将驱动先进封装产能2024年增长30%~40%。
图片来源于网络
市调机构TrendForce集邦咨询研究指出,2023年ChatBOT等生成式AI应用带动AI服务器增长,大型云端厂商陆续采购高端AI服务器,以持续训练及优化其AI分析模型。而高端AI服务器需采用的高端AI芯片,将提升2023-2024年高带宽存储器(HBM)的需求,并将驱动先进封装产能2024年增长30%~40%。
TrendForce指出,包含微软、谷歌、AWS、百度、字节跳动等陆续购买AI服务器。为提升整体AI服务器的系统计算性能以及存储器传输带宽等,英伟达、AMD、英特尔等高端AI芯片中大多选择搭载HBM。
目前英伟达的A100及H100,各搭载达80GB的HBM2e及HBM3,在其最新整合CPU及GPU的Grace Hopper芯片中,单颗芯片HBM搭载容量再提升20%,达96GB。
另外,AMD的MI300也搭配HBM3,其中,MI300A容量与前一代相同为128GB,更高端MI300X则达192GB,提升了50%。
TrendForce集邦咨询预估,2023年市场上主要搭载HBM的AI加速芯片,搭载HBM总容量将达2.9亿GB,增长率近6成,2024年将持续成长3成以上。
免责声明:本文为转载文章,转载此文目的在于传递更多信息,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请联系小编进行处理。
推荐阅读: