Cloud AI Server需求强劲,促NVIDIA FY2Q24数据中心业务占比首次突破76%|TrendForce集邦咨询
TrendForce集邦咨询:Cloud AI Server需求强劲,促NVIDIA FY2Q24数据中心业务占比首次突破76%
据NVIDIA最新财报数据(FY2Q24)显示,其数据中心业务达103.2亿美元,季成长率141%,年成长率更高达171%,且NVIDIA看好后续成长力道。TrendForce集邦咨询认为,主要NVIDIA高营收成长动力来自于其数据中心AI服务器相关解决方案业务,主力产品包含AI加速芯片GPU、AI服务器参考架构HGX等,作为大型数据中心的AI 基础设施。
同时,TrendForce集邦咨询预期,NVIDIA将进一步整合其软硬件资源,并更细致地将其高端及中低端GPU AI加速芯片,与各ODM或OEM绑定合作软硬件系统认证模式。除了加速在CSP云端AI服务器基础设施布建之外,也和VMware等合作Private AI Foundation等方案,将其触角延伸至边缘Enterprises AI服务器市场,以支撑其今、明两年数据中心业务稳定成长。
Cloud AI强劲需求驱动,NVIDIA数据中心业务占比超越76%
NVIDIA近年积极布局数据中心业务,FY4Q22当时数据中心业务营收约占42.7%,尚落后于Gaming业务营收约2个百分点,于FY1Q23后正式超越Gaming业务营收,占比逾45%。自2023年起,各大CSP大举投入ChatBOT及公有云各种AI服务基础设施后,NVIDIA更直接受惠,FY2Q24数据中心业务营收占比一举突破76%。
NVIDIA将分攻Cloud及Edge Data Center AI应用市场
TrendForce集邦咨询观察,预估NVIDIA在高端GPU产品销售策略上,将于2023下半年后有所转变,原高端AI服务器以搭载A100及H100为主,在市场需求大好的预期下,将改主攻售价更高的H100,才能有效刺激数据中心相关业务营收向上。
中端GPU方面,以近期主推的L40s为主打方案,其中有几个主要策略意义。首先,高端H100系列受限于目前CoWoS、HBM等产能瓶颈,而L40s则主要搭配GDDR存储器,因不须CoWoS封装,可加速导入中端AI服务器市场,补足原A100 PCIe接口对Enterprises客户需求缺口。
其次,L40s也同时主攻如Enterprises客户,不需使用如ChatGPT数量庞大的参数模型,而是主攻较小型化(约数十billion~百billion参数量以下)各专业领域的AI Training应用,亦或针对边缘AI Inference或影像分析等使用。最后,低阶GPU系列,则以L4或T4系列为主打,主打边缘AI服务器实时AI推论或影像分析使用,并更强调较低价,其高C/P值的产品特性。
HGX及MGX等AI服务器参考架构将是NVIDIA下半年后主攻AI方案的利器
TrendForce集邦咨询观察,近期NVIDIA除针对其核心AI芯片GPU进行更细致化的产品定位外,也积极主推其HGX及MGX等方案,而这并不是服务器产业链首见做法,但NVIDIA有机会在此策略上稳固领先利基。主要是NVIDIA藉由高度整合其GPU加上CUDA建立完整AI生态系下处绝对领先位置,故对既有的服务器供应链有较强议价能力,藉此要求ODM如Inventec、Quanta、FII、Wistron、Wiwynn等,或品牌业者如Dell、Supermicro、Gigabyte等,依据NVIDIA的HGX或MGX参考设计,且需经过NVIDIA于该AI 服务器参考架构的软硬件认证过程。NVIDIA藉此可整合兜售其Arm CPU Grace及NPU或AI Cloud Foundation等软硬件解决方案。
值得注意的是,对ODM或OEM而言,由于预期NVIDIA于2023~2024年在云端服务业者的AI服务器主力市场将大有斩获,有利于拉抬整体AI服务器出货量及营收成长,但随着NVIDIA策略性导入HGX或MGX等标准化AI服务器架构,也使未来ODM等业者将因AI server核心产品架构较趋于同质化而使彼此争取CSPs等订单之竞争态势更趋于白热化。此外,观察大型CSPs如Google、AWS未来有扩大导入自研ASIC AI加速芯片趋势,亦可能侵蚀部分NVIDIA GPU市场,估此亦为NVIDIA持续推展不同定位GPU产品及整体方案,欲进一步将AI业务积极拓展至Tier-2数据中心如CoreWeave等及边缘Enterprises客户的主因之一。