IT之家 2 月 27 日消息,据报道,用于人工智能 () 和高性能计算 (HPC) 应用的 交货周期大幅缩短,从之前的 8-11 个月缩减至仅 3-4 个月。这导致一些囤货的公司正在试图出售其过剩的 H100 80GB 处理器,因为现在从亚马逊云服务、谷歌云和微软 Azure 等大型公司租用芯片更加方便。
本文引用地址:据 The Information 报道称,由于稀缺性降低以及维护未使用库存的高昂成本,一些公司正在转售其 或减少订单,这与去年争相抢购 Hopper GPU 形成鲜明对比。尽管芯片可用性改善且交货周期显著缩短,但报道称,对 芯片的需求仍然超过供给,尤其是一些训练大型语言模型 (LLM) 的公司,例如 Open。
云服务提供商(CSP)例如亚马逊 AWS 提供按需租用 的服务,缓解了部分需求压力,缩短了等待时间。
然而,由于训练大型语言模型需要成千上万的 GPU,因此此类公司仍面临供应瓶颈,有时需要等待数月才能获得所需的处理能力。因此, H100 等处理器的价格并未下降,公司仍保持着高利润率。
IT之家注意到,随着芯片供应瓶颈的缓解,买家行为也发生了转变。企业变得更加注重价格和采购 / 租赁的合理性,倾向于选择更小的 GPU 集群并关注其业务的经济可行性。
由于替代方案(例如 AMD 或 AWS 的处理器)的性能和软件支持不断加强,再加上对 AI 处理器更加谨慎的支出,AI 领域可能迎来更加平衡的市场格局。