Cloud AI Server需求强劲,促NVIDIA FY2Q24数据中心业务占比首次突破76%|TrendForce集邦咨询

发布时间:2023-08-25  

TrendForce集邦咨询:Cloud AI Server需求强劲,促NVIDIA FY2Q24数据中心业务占比首次突破76%

据NVIDIA最新财报数据(FY2Q24)显示,其数据中心业务达103.2亿美元,季成长率141%,年成长率更高达171%,且NVIDIA看好后续成长力道。TrendForce集邦咨询认为,主要NVIDIA高营收成长动力来自于其数据中心AI服务器相关解决方案业务,主力产品包含AI加速芯片GPU、AI服务器参考架构HGX等,作为大型数据中心的AI 基础设施。

同时,TrendForce集邦咨询预期,NVIDIA将进一步整合其软硬件资源,并更细致地将其高端及中低端GPU AI加速芯片,与各ODM或OEM绑定合作软硬件系统认证模式。除了加速在CSP云端AI服务器基础设施布建之外,也和VMware等合作Private AI Foundation等方案,将其触角延伸至边缘Enterprises AI服务器市场,以支撑其今、明两年数据中心业务稳定成长。

Cloud AI强劲需求驱动,NVIDIA数据中心业务占比超越76%

NVIDIA近年积极布局数据中心业务,FY4Q22当时数据中心业务营收约占42.7%,尚落后于Gaming业务营收约2个百分点,于FY1Q23后正式超越Gaming业务营收,占比逾45%。自2023年起,各大CSP大举投入ChatBOT及公有云各种AI服务基础设施后,NVIDIA更直接受惠,FY2Q24数据中心业务营收占比一举突破76%。

NVIDIA将分攻Cloud及Edge Data Center AI应用市场

TrendForce集邦咨询观察,预估NVIDIA在高端GPU产品销售策略上,将于2023下半年后有所转变,原高端AI服务器以搭载A100及H100为主,在市场需求大好的预期下,将改主攻售价更高的H100,才能有效刺激数据中心相关业务营收向上。

中端GPU方面,以近期主推的L40s为主打方案,其中有几个主要策略意义。首先,高端H100系列受限于目前CoWoS、HBM等产能瓶颈,而L40s则主要搭配GDDR存储器,因不须CoWoS封装,可加速导入中端AI服务器市场,补足原A100 PCIe接口对Enterprises客户需求缺口。

其次,L40s也同时主攻如Enterprises客户,不需使用如ChatGPT数量庞大的参数模型,而是主攻较小型化(约数十billion~百billion参数量以下)各专业领域的AI Training应用,亦或针对边缘AI Inference或影像分析等使用。最后,低阶GPU系列,则以L4或T4系列为主打,主打边缘AI服务器实时AI推论或影像分析使用,并更强调较低价,其高C/P值的产品特性。

HGX及MGX等AI服务器参考架构将是NVIDIA下半年后主攻AI方案的利器

TrendForce集邦咨询观察,近期NVIDIA除针对其核心AI芯片GPU进行更细致化的产品定位外,也积极主推其HGX及MGX等方案,而这并不是服务器产业链首见做法,但NVIDIA有机会在此策略上稳固领先利基。主要是NVIDIA藉由高度整合其GPU加上CUDA建立完整AI生态系下处绝对领先位置,故对既有的服务器供应链有较强议价能力,藉此要求ODM如Inventec、Quanta、FII、Wistron、Wiwynn等,或品牌业者如Dell、Supermicro、Gigabyte等,依据NVIDIA的HGX或MGX参考设计,且需经过NVIDIA于该AI 服务器参考架构的软硬件认证过程。NVIDIA藉此可整合兜售其Arm CPU Grace及NPU或AI Cloud Foundation等软硬件解决方案。

值得注意的是,对ODM或OEM而言,由于预期NVIDIA于2023~2024年在云端服务业者的AI服务器主力市场将大有斩获,有利于拉抬整体AI服务器出货量及营收成长,但随着NVIDIA策略性导入HGX或MGX等标准化AI服务器架构,也使未来ODM等业者将因AI server核心产品架构较趋于同质化而使彼此争取CSPs等订单之竞争态势更趋于白热化。此外,观察大型CSPs如Google、AWS未来有扩大导入自研ASIC AI加速芯片趋势,亦可能侵蚀部分NVIDIA GPU市场,估此亦为NVIDIA持续推展不同定位GPU产品及整体方案,欲进一步将AI业务积极拓展至Tier-2数据中心如CoreWeave等及边缘Enterprises客户的主因之一。

文章来源于:全球半导体观察    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。

相关文章

    的高性能计算机集群上花费5小时进行仿真。现在基于预训练的盘古气象大模型,通过AI推理的方式,研究者只需单台服务器上单卡配置,10秒内就可以获得更精确的预测结果。 华为云......
    的高性能计算机集群上花费5小时进行仿真。现在基于预训练的盘古气象大模型,通过AI推理的方式,研究者只需单台服务器上单卡配置,10秒内就可以获得更精确的预测结果。 华为云......
    性能比业界主流提升了30%;同时在大模型训练场景下,训练效能已经达到业界主流GPU的1.1倍,为客户训练大模型带来更优选择。 石冀琳表示,华为云能够为客户提供全栈AI服务,盘古大模型3.0包括......
    等方面的优势条件,华为云在贵州、内蒙古、安徽等地建设了CloudOcean云核心枢纽,规划建设的服务器规模均达到百万台以上,并通过科技创新与自然优势相结合,为客户提供更加充沛、绿色、高效的云服务。例如......
    智能门锁的核心控制器,因为STM32系列具有低功耗、高性能和丰富的外设接口等优点,非常适合嵌入式应用。 华为云IOT平台作为一个强大的云服务平台,提供了丰富的物联网解决方案和强大的数据处理能力。将智能门锁与华为云......
    、NPU、GPU等算力资源全部互联和池化,从而把AI算力从单体算力演进到矩阵算力,开启智能算力新纪元。 同时,针对云平台在大模型的训练和使用中存在的“内存墙”问题,华为云正式发布EMS弹性内存存储服务......
    华为云CTO张宇昕:系统性创新及服务重塑,打造AI Native的云;今天,华为开发者大会2024(HDC 2024)在东莞篮球中心隆重揭幕。华为携手各领域客户及伙伴,全面分享了HarmonyOS......
    体系。华为云CCI Serverless容器服务也正式上线。基于serverless容器架构CCI,客户无需创建和管理服务器节点,即可直接运行容器应用,按需获取、智能运维,让客户只需专注应用开发,无需......
    安强调,华为云与贵州省的持续深化合作,通过在贵州布局全球最大的数据中心,不仅服务于全国,更引领了东数西算的标杆。 华为云贵安数据中心的建成,容纳百万台服务器,其能效比PUE达到1.12,处于......
    步就是设置上报设备的属性,也就是设备的数据类型定义。 2.4 生成MQTT登录密匙 创建完产品、设备之后,接下来就需要知道如何通过MQTT协议登陆华为云服务器。 官方的详细介绍在这里: https......

我们与500+贴片厂合作,完美满足客户的定制需求。为品牌提供定制化的推广方案、专属产品特色页,多渠道推广,SEM/SEO精准营销以及与公众号的联合推广...详细>>

利用葫芦芯平台的卓越技术服务和新产品推广能力,原厂代理能轻松打入消费物联网(IOT)、信息与通信(ICT)、汽车及新能源汽车、工业自动化及工业物联网、装备及功率电子...详细>>

充分利用其强大的电子元器件采购流量,创新性地为这些物料提供了一个全新的窗口。我们的高效数字营销技术,不仅可以助你轻松识别与连接到需求方,更能够极大地提高“闲置物料”的处理能力,通过葫芦芯平台...详细>>

我们的目标很明确:构建一个全方位的半导体产业生态系统。成为一家全球领先的半导体互联网生态公司。目前,我们已成功打造了智能汽车、智能家居、大健康医疗、机器人和材料等五大生态领域。更为重要的是...详细>>

我们深知加工与定制类服务商的价值和重要性,因此,我们倾力为您提供最顶尖的营销资源。在我们的平台上,您可以直接接触到100万的研发工程师和采购工程师,以及10万的活跃客户群体...详细>>

凭借我们强大的专业流量和尖端的互联网数字营销技术,我们承诺为原厂提供免费的产品资料推广服务。无论是最新的资讯、技术动态还是创新产品,都可以通过我们的平台迅速传达给目标客户...详细>>

我们不止于将线索转化为潜在客户。葫芦芯平台致力于形成业务闭环,从引流、宣传到最终销售,全程跟进,确保每一个potential lead都得到妥善处理,从而大幅提高转化率。不仅如此...详细>>