【导读】生成式AI与大型语言模型(LLM)相关需求爆发,吸引包括大型云端业者、主要服务器品牌商皆加入AI服务器军备竞赛,并将采购重点集中于以采购HBM为主的高阶AI服务器。
生成式AI与大型语言模型(LLM)相关需求爆发,吸引包括大型云端业者、主要服务器品牌商皆加入AI服务器军备竞赛,并将采购重点集中于以采购HBM为主的高阶AI服务器。
由于封装HBM所需CoWoS产能不足。机构认为2023年高阶AI服务器需求与供给将有35%以上的落差,但预估出货量仍将增加5倍,达17.2万台。
机构预期,2023年全球主要云端业者与品牌高阶AI服务器出货量将有8成以上集中于前五大业者,其中,注资Open AI ChatGPT并大量投入生成式AI云服务的微软,直接通过代工厂生产的高阶AI服务器出货将排名第一;长期投入生成式AI也掌握关键技术的Google以投入自家研发的TPU (Tensor Processing Unit)做为主攻的高阶AI服务器机种,通过代工厂的产量将排名第二;最积极部署开源LLM模型的Meta出货将居第三。
亚马逊投入脚步较慢,但也积极与第三方业者合作,预期通过代工厂出货排名第四。美国超微、戴尔、英伟达及慧与(HPE)等品牌业者出货则紧追在大型业者之后。
高阶AI服务器所采取加速器种类方面,预期2023年NVIDIA HGX GPU系列将占近8成,其中,H100 HGX出货将略多于A100 HGX;TPU因Google积极采用,占比将超过1成,其他则主要为PCIe版的NVIDIA 100系列,及少量的NVIDIA GH200与AMD、英特尔等业者的高阶GPU。
高阶AI服务器代工厂出货方面,预期英业达与美商ZT Systems分别为L6与L10~L12制造的最大赢家,英业达掌握多个大型云端业者及品牌商订单,2023年占L6比重将近6成;ZT Systems则因早期即与大型云端业者及相关技术提供者合作,具备大型GPU丛集系统整合技术优势,预期其L10~L12占比将近5成,而台厂中则以广达在L10~L12布局最为积极。
免责声明:本文为转载文章,转载此文目的在于传递更多信息,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请联系小编进行处理。
推荐阅读: