Nvidia CEO Jensen Huang宣布新的AI芯片:“我们需要更大的

2024-03-21  

Nvidia于周一宣布了一款新一代的人工智能芯片和软件,用于运行AI模型。这款新的AI图形处理器被命名为Blackwell,预计将于今年晚些时候发货。这一宣布发生在各家公司和软件制造商仍在竭力获取当前一代H100和类似芯片的情况下。

本文引用地址:

在加州圣何塞举行的开发者大会上,该公司宣布了这一消息,旨在巩固其作为AI公司首选供应商的地位。

自从2022年底OpenAI的ChatGPT掀起了人工智能热潮以来,的股价已上涨了五倍,总销售额也增长了两倍多。的高端服务器GPU对于训练和部署大型AI模型至关重要。微软和Meta等公司已经花费数十亿美元购买了这些芯片。

这一新一代的AI图形处理器被命名为Blackwell。第一款Blackwell芯片被称为GB200,预计将于今年晚些时候发货。英伟达正在通过提供更强大的芯片来吸引客户以刺激新订单。例如,一些公司和软件制造商仍在争相获取当前一代“Hopper” H100和类似芯片。

“Hopper是非常出色的,但我们需要更大的GPU,”英伟达CEO Jensen Huang周一在加州的开发者大会上表示。

英伟达的股价在周一的盘后交易中下跌了超过1%。

该公司还推出了一款名为NIM的盈利软件,这将使部署AI变得更加容易,这给了客户另一个理由选择英伟达芯片而不是日益增多的竞争对手。

英伟达的高管表示,该公司正在从一个佣兵式的芯片提供商转变为一个像微软或苹果一样的平台提供商,其他公司可以在其上构建软件。

“Blackwell不仅仅是一种芯片,它是一个平台的名称,”黄仁勋说道。

“可销售的商业产品是GPU,软件是为了帮助人们以不同方式使用GPU,”英伟达企业副总裁Manuvir Das在采访中说道。“当然,我们仍然在做这件事。但真正改变的是,我们现在真正拥有了一个商业软件业务。”

Das表示,英伟达的新软件将使在任何英伟达的GPU上运行程序变得更加容易,即使是那些可能更适合部署而不是构建AI的旧版本。

“如果你是开发人员,你有一个你希望人们采纳的有趣模型,如果你把它放在一个NIM中,我们将确保它可以在我们所有的GPU上运行,这样你就可以触及到很多人,”Das说道。

见证Hopper的继任者:Blackwell

每两年,英伟达更新一次其GPU架构,从而实现性能的大幅提升。过去一年发布的许多AI模型都是在该公司的Hopper架构上进行训练的——比如H100——该架构于2022年宣布。

英伟达表示,基于Blackwell的处理器,如GB200,为AI公司提供了巨大的性能升级,AI性能达到20 petaflops,而H100仅为4 petaflops。英伟达表示,额外的处理能力将使AI公司能够训练更大更复杂的模型。

该芯片包括英伟达所称的“专为运行基于transformers的AI而构建的变压器引擎”,这是支撑ChatGPT的核心技术之一。

Blackwell GPU较大,将两个分别制造的芯片合并成一个由TSMC制造的芯片。它还将作为一个完整的服务器产品推出,名为GB200 NVLink 2,将72个Blackwell GPU和其他旨在训练AI模型的英伟达零部件组合在一起。

亚马逊、谷歌、微软和甲骨文将通过云服务销售对GB200的访问。GB200配备了两个B200 Blackwell GPU和一个基于Arm的Grace CPU。英伟达表示,亚马逊网络服务将建立一个拥有20000个GB200芯片的服务器集群。

英伟达表示,该系统可以部署一个27万亿参数模型。这比最大的模型如GPT-4的1.7万亿参数要大得多。许多人工智能研究人员认为,具有更多参数和数据的更大模型可以解锁新的能力。

英伟达没有提供新GB200或其所用系统的成本。据分析师估计,英伟达基于Hopper的H100的成本在每个芯片之间在25000到40000美元之间,整个系统的成本高达200000美元。

英伟达还将B200图形处理器作为一个完整系统的一部分出售,该系统占据了整个服务器机架。

Nvidia推出了一款名为NIM的新产品,旨在为其Nvidia企业软件订阅服务增添功能。

NIM使得利用老款Nvidia GPU进行推理任务变得更加容易,推理任务涉及运行AI软件。这使得公司可以继续利用他们已经拥有的数以亿计的Nvidia GPU。与AI模型的初始训练相比,推理需要较少的计算资源。NIM使得公司可以运行自己的AI模型,而不是购买像OpenAI这样的公司提供的AI结果服务。

这一战略的目标是让购买Nvidia服务器的客户注册Nvidia企业服务,该服务每年以每GPU 4,500美元的价格出售。

Nvidia将与微软、Hugging Face等AI公司合作,以确保他们的AI模型能够在所有兼容的Nvidia芯片上运行。然后,开发人员可以使用NIM,在自己的服务器或基于云的Nvidia服务器上高效地运行模型,而无需经历复杂的配置过程。

Nvidia的企业副总裁Manuvir Das解释说,将NIM集成到他们的代码中非常简单,只需将一行代码指向Nvidia推理微服务,而不是OpenAI的服务。

此外,Nvidia强调该软件还将有助于在配备GPU的笔记本电脑上运行AI,而不是仅在云服务器上运行AI任务。

文章来源于:电子产品世界    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。