AI狂潮,GPU短缺严重,先进封装火力全开!

发布时间:2023-08-03  

如果说2016年击败李世石的使用强化学习模型的AlphaGO(阿尔法围棋)没有给你留下深刻影响,那么基于大语言模型技术的ChatGPT应足以让你感慨,AI的脚步越来越贴近我们的生活,我们对于AI所带来的变动感知越来越清晰。

从广义上讲,只要能够运行人工智能算法的芯片都叫作AI芯片。而从AI运算过程看,其贯穿了云-边-端,因此又可分为云端芯片、边端芯片、终端芯片,外加一个适配海量数据的存储芯片。具体到技术架构层面,AI芯片主要分为图形处理器(GPU)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、中央处理器(CPU)等类脑芯片四大类。

当下正值国内外大模型爆发期,算力缺口出现,GPU芯片引起市场关注。

01
GPU:每家都需要,每家都在抢

当下大部分的现象级AI产品如Chat GPT背后的算力支撑主要来自GPU或CPU+FPGA。其中GPU的火热远超CPU。“GPU专为加速计算和生成式AI而设计,未来你需要更少的CPU,GPU的连接将会更加普遍。”英伟达CEO黄仁勋表示。

大模型对于GPU的性能和数量要求都很高,据前人工智能NLP企业首席科学家、千芯科技董事长陈巍测算,国内如果想要直接训练出一个GPT-3级别的大模型,最少需要3000到5000枚A100级别的AI芯片。以保守情况估计,目前国内A100级别的AI芯片缺口在30万枚左右。

AI大火以后,英伟达旗下A100、H100、A800和H800等高性能GPU芯片应声涨价,一度被调侃为新一代理财产品。国内外消息显示,其旗舰级芯片H1004月中旬在海外电商平台就已炒到超4万美元,甚至有卖家标价6.5万美元。英伟达的中国特供版A800和H800芯片也不例外,近日一位经销商表示,目前其手中NVIDIA A800的售价已较一周上涨约30%,服务器现货则由120多万元一台涨至接近140万元。

那个爱穿皮衣的男人最先尝到了AI红利。在上市14年之后,英伟达成功跻身万亿美元市值俱乐部,而实现这一目标,硅谷巨头们诸如苹果用了37年、微软用了33年、亚马逊用了21年,特斯拉跑得最快,只用了11年。

不过,在GPU爆火大潮下,也难以逃脱如2020年车规芯片短缺的境遇。GPU的供应短缺到了何种程度呢?当下即使如OpenAI,也无法获得足够的GPU,马斯克表示,这严重阻碍了其近期路线图。

业界消息显示,GPU缺口还在加速扩大。此前已有媒体报道今年拥有云端相关业务的企业,大多都向英伟达采购了大量GPU,目前该公司订单已排至2024年。

02
产能跟不上,先进封装是关键

GPU芯片供应短缺的背后,与先进封装产能供应不足息息相关。从从供应链角度看,先进封装一定程度上影响着AI芯片的放量速度。

行业消息显示,目前NVIDIA A100、H100 GPU完全由台积电代工生产,搭载第三代HBM(高带宽内存),并使用台积电CoWoS先进封装技术,此外博通、AMD等芯片公司也在争抢台积电CoWoS产能,导致台积电产能压力大增。

面对先进封装CoWoS产能爆满,近日在2023年第二季度线上法说会上,台积电表示,到2024年CoWos产能将扩充2倍以上。台积电总裁魏哲家表示,与AI芯片相关的一些高级封装可能在2024年底之前仍然供应紧张。因此,需求可能在相当长的时间内持续超过供应,因为AMD和英伟达将无法扩大生产至某个点,尽管某些4nm和5nm的产能是可用的。

近期,媒体报道为满足市场需求,台积电已向Disco、Apic Yamada及台厂辛耘、弘塑等先进封装设备供应商启动第三波追单。

03
响应需求,HBM加速开发

由于目前几乎所有的HBM系统都封装在CoWos上,HBM存储本质上也属于先进封装的一部分。

根据TrendForce集邦咨询调查显示,2023年HBM(High Bandwidth Memory)市场主流为HBM2e,包含NVIDIA A100/A800、AMD MI200以及多数CSPs自研加速芯片皆以此规格设计。同时,为顺应AI加速器芯片需求演进,各原厂计划于2024年推出新产品HBM3e,预期HBM3与HBM3e将成为明年市场主流。

TrendForce集邦咨询特别表示,目前市场所称的HBM3实际需细分为两种速度讨论,其一,5.6~6.4Gbps的HBM3;其二,8Gbps的HBM3e,别名HBM3P、HBM3A、HBM3+、HBM3 Gen2皆属此类。

目前三大原厂HBM发展进度如下,两大韩厂SK海力士(SK hynix)、三星(Samsung)先从HBM3开发,代表产品为NVIDIA H100/H800以及AMD的MI300系列,两大韩厂预计于2024年第一季送样HBM3e;美系原厂美光(Micron)则选择跳过HBM3,直接开发HBM3e。

HBM3e将由24Gb mono die堆栈,在8层(8Hi)的基础下,单颗HBM3e容量将一口气提升至24GB,此将导入在2025年NVIDIA推出的GB100上,故三大原厂预计要在2024年第一季推出HBM3e样品,以期在明年下半年进入量产。

封面图片来源:拍信网

文章来源于:全球半导体观察    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。

我们与500+贴片厂合作,完美满足客户的定制需求。为品牌提供定制化的推广方案、专属产品特色页,多渠道推广,SEM/SEO精准营销以及与公众号的联合推广...详细>>

利用葫芦芯平台的卓越技术服务和新产品推广能力,原厂代理能轻松打入消费物联网(IOT)、信息与通信(ICT)、汽车及新能源汽车、工业自动化及工业物联网、装备及功率电子...详细>>

充分利用其强大的电子元器件采购流量,创新性地为这些物料提供了一个全新的窗口。我们的高效数字营销技术,不仅可以助你轻松识别与连接到需求方,更能够极大地提高“闲置物料”的处理能力,通过葫芦芯平台...详细>>

我们的目标很明确:构建一个全方位的半导体产业生态系统。成为一家全球领先的半导体互联网生态公司。目前,我们已成功打造了智能汽车、智能家居、大健康医疗、机器人和材料等五大生态领域。更为重要的是...详细>>

我们深知加工与定制类服务商的价值和重要性,因此,我们倾力为您提供最顶尖的营销资源。在我们的平台上,您可以直接接触到100万的研发工程师和采购工程师,以及10万的活跃客户群体...详细>>

凭借我们强大的专业流量和尖端的互联网数字营销技术,我们承诺为原厂提供免费的产品资料推广服务。无论是最新的资讯、技术动态还是创新产品,都可以通过我们的平台迅速传达给目标客户...详细>>

我们不止于将线索转化为潜在客户。葫芦芯平台致力于形成业务闭环,从引流、宣传到最终销售,全程跟进,确保每一个potential lead都得到妥善处理,从而大幅提高转化率。不仅如此...详细>>