【导读】近期英伟达GB200AI服务器出货递延杂音四起,英伟达CEO接受外媒专访时辟谣,表示「GB200正满载生产、进展顺利」,并大赞最新Blackwell平台服务器在推理过程中兼顾高效和节能之余,效能更大增30倍。
近期英伟达GB200AI服务器出货递延杂音四起,英伟达CEO接受外媒专访时辟谣,表示「GB200正满载生产、进展顺利」,并大赞最新Blackwell平台服务器在推理过程中兼顾高效和节能之余,效能更大增30倍。
英伟达CEO直言,「愈来愈多公司争相建置AI能量,三个月的时间差可能就会改变游戏规则。」
业内指出,英伟达出面辟谣,并对Blackwell平台服务器「超强效能」信心喊话,有稳定军心味道,也为鸿海、广达、纬创、英业达等GB200 AI服务器代工厂出货提供信心。
鸿海、广达等首批出货GB200 AI服务器的代工厂先前均透露,将于年底前小量出货,明年第1季放量。如今英伟达出面稳军心,代工厂大量认列GB200 AI服务器机柜出货实质营收贡献,可望如先前预期推进。
广达指出,高频、高算力服务器产品在验证过程中,从前段芯片组良率到后段装机测试等,一定会出现各式各样问题,供应链势必会一层一层解决,确保量产良率。
英伟达Blackwell平台AI芯片正陆续交付,「最强AI芯片」GB200服务器出货放量在即,市场对出货进度关注节节升温。
研调机构集邦科技(TrendForce)示警,由于高速互通介面、热设计功耗(TDP)等关键零组件设计规格明显高于主流,供应链需要更多时间调校优化,AI服务器机柜放量出货时程恐递延至明年第2季甚至第3季,比业界预期晚一季到半年。
英伟达CEO受访透露Blackwell平台AI芯片出货进展顺利,也点出其超强效能。黄仁勋表示,过去通常需花费数月处理训练模型所需数据,接着再训练模型,透过Blackwell可提升训练模型效率,将时间压缩至原先三分之一到四分之一,假如原先需要六个月,现在仅需耗时一个半月左右。
谈及Blackwell推理能力,英伟达指出,推理过程遵循的不是零样本学习或单样本学习,而是长期思考模式,本质上是AI先在脑海中构思各种不同解法,再用更多算力,提供更适当的答案,称之为测试阶段标准化(test time scaling)或推理阶段标准化(inference time scaling),Blackwell服务器在推理过程中兼顾高效和节能。
免责声明:本文为转载文章,转载此文目的在于传递更多信息,版权归原作者所有。本文所用视频、图片、文字如涉及作品版权问题,请联系小编进行处理。
推荐阅读:
相关文章