【导读】TrendForce集邦咨询6月28日发表研报,称目前高端AI服务器GPU搭载HBM芯片已成主流,预计2023年全球HBM需求量将年增近六成,达到2.9亿GB,2024年将再增长30%。
TrendForce集邦咨询6月28日发表研报,称目前高端AI服务器GPU搭载HBM芯片已成主流,预计2023年全球HBM需求量将年增近六成,达到2.9亿GB,2024年将再增长30%。
机构预计到2025年,全球如果等同于ChatGPT的超大型AIGC有5款,类似Midjourney的中型产品有25款,以及80款小型产品,在这个条件下,上述所需的运算资源至少包含145600~233700颗英伟达A100 GPU;再加上超级计算机、8K影音串流、AR/VR等应用,也将进一步提高云端运算系统的负载。
由于HBM内存芯片拥有比DDR SDRAM更高的带宽、相对较低的能耗,因此近年来发布的旗舰HPC处理器、运算加速GPU均在采用HBM内存。预计未来,HBM可以取代一部分GDDR SDRAM显存以及DDR SDRAM普通内存。
集邦咨询预计,目前英伟达A100、H100、AMD MI300,以及大型云服务提供商谷歌、AWS等自主研发的ASIC AI服务器增长需求较为强劲,预计2023年AI服务器出货量(含GPU、FPGA、ASIC等)预估在120万台,年增长率近38%。AI芯片出货量同步看涨,预计今年将增长50%。
免责声明:本文为转载文章,转载此文目的在于传递更多信息,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请联系小编进行处理。
推荐阅读: