● 全新 、NVLink和可靠性技术赋能万亿参数规模的AI模型
● 全新Tensor Core与TensorRT-LLM编译器将LLM推理运行成本和能耗降低多达25倍
● 全新加速器助推数据处理、工程模拟、电子设计自动化、计算机辅助药物设计和量子计算领域实现突破
● 各大云提供商、服务器制造商和头部AI企业纷纷采用
于近日宣布推出 平台以赋能计算新时代。该平台可使世界各地的机构都能够在万亿参数的大语言模型(LLM)上构建和运行实时生成式AI,其成本和能耗较上一代产品降低多达25倍。
架构搭载六项变革性的加速计算技术,这些技术将助推数据处理、工程模拟、电子设计自动化、计算机辅助药物设计、量子计算和生成式 AI 等领域实现突破,这些都是眼中的新兴行业机遇。
NVIDIA创始人兼首席执行官黄仁勋表示: “三十年来,我们一直深耕加速计算领域,力求实现像深度学习和 AI 这样的变革性突破。生成式 AI 是我们这个时代的决定性技术,Blackwell 是推动新一轮工业革命的引擎。通过与全球最具活力的企业合作,我们将实现 AI 赋能各行各业的承诺。”
许多企业都在计划采用 Blackwell,其中包括亚马逊云科技、戴尔科技、谷歌、Meta、微软、OpenAI、Oracle、特斯拉和 xAI。
Alphabet和谷歌首席执行官Sundar Pichai表示: “通过扩展谷歌搜索和Gmail等服务以服务于数十亿用户,我们对于如何管理计算基础设施有了更加深入的了解。随着公司业务进入AI平台转型期,我们将继续为自身产品和服务以及云客户扩大基础设施投资。我们有幸与NVIDIA建立了长期合作伙伴关系,并期待着将Blackwell GPU的突破性功能带给我们的云客户以及包括Google DeepMind在内的谷歌团队,以加速未来的探索进程。”
亚马逊总裁兼首席执行官Andy Jassy表示: “我们与 NVIDIA 的深度合作可以追溯到 13 年前,当时我们在 AWS 上推出了全球首个 GPU 云实例。如今,我们在云端提供了最为广泛的 GPU 解决方案,以支持全球那些技术上最先进的加速工作负载。正因如此,NVIDIA Blackwell GPU能够在AWS上运行得如此出色,NVIDIA也选择与AWS共同开发Project Ceiba,将NVIDIA新一代Grace Blackwell超级芯片与AWS Nitro System的高级虚拟化和超快速的Elastic Fabric Adapter 网络结合,以用于NVIDIA自身的AI研发。通过AWS与NVIDIA工程师的共同努力,我们将持续创新,使AWS成为每一个想要在云端运行NVIDIA GPU的用户的最佳选择。”
戴尔科技董事会主席兼首席执行官Michael Dell表示: “生成式AI对于创建更智能、更可靠和更高效的系统至关重要。戴尔科技与NVIDIA将携手塑造未来科技。随着Blackwell的发布, 我们将继续为用户提供新一代加速产品和服务,以提供推动跨行业创新所需的工具。”
谷歌DeepMind联合创始人兼首席执行官Demis Hassabis表示:“AI 的变革潜力令人难以置信,它将帮助我们解决世界上那些最重要的科学问题。Blackwell突破性的技术性能将提供所需的关键算力,从而帮助那些世界上最聪明的大脑绘制新的科学蓝图。”
Meta公司创始人兼首席执行官Mark Zuckerberg表示: “从我们的大语言模型到内容推荐、广告和安全系统,AI 已经在赋能一切,而且AI在未来将会日益重要。我们期待通过NVIDIA Blackwell帮助训练我们的开源Llama模型,打造下一代Meta AI和消费产品。”
微软执行董事长兼首席执行官Satya Nadella表示: “我们致力于为客户提供最先进的基础设施,以赋能其 AI 工作负载。一直以来,我们致力于为云端优化NVIDIA GPU,通过在我们的全球数据中心采用 GB200 Grace Blackwell 处理器,我们得以在这一进程中再进一步,助力世界各地的组织实现AI落地。”
OpenAI首席执行官Sam Altman表示: “Blackwell 实现了巨大的性能飞跃,并将加速我们提供尖端模型的能力。我们很高兴能继续与NVIDIA合作,共同提升AI计算。”
Oracle董事长兼首席技术官Larry Ellison表示: “Oracle与NVIDIA的紧密合作将推动AI、机器学习和数据分析领域实现质和量的突破。为了让用户能够获取更多具有可操作性的洞察,正需要像Blackwell这样专为加速计算和生成式AI而打造的、更强大的引擎。”
特斯拉及xAI首席执行官Elon Musk表示:“当下的AI领域,NVIDIA硬件无可比拟。”
新架构以纪念David Harold Blackwell命名,他不仅是一位专门研究博弈论和统计学的数学家,也是第一位入选美国国家科学院的黑人学者。这一新架构是继两年前推出的NVIDIA Hopper™架构以来的全新架构。
Blackwell的多项创新技术为加速计算和生成式AI提供助力
凭借六项变革性的技术,Blackwell能够在拥有高达10万亿参数的模型上实现AI训练和实时LLM推理,这些技术包括:
● 全球最强大的芯片:Blackwell架构GPU具有2080亿个晶体管,采用专门定制的双倍光刻极限尺寸4NP TSMC工艺制造,通过10 TB/s的片间互联,将GPU裸片连接成一块统一的GPU。
● 第二代Transformer引擎:得益于全新微张量缩放支持,以及集成于NVIDIA TensorRT™-LLM 和 NeMo Megatron框架中的NVIDIA先进动态范围管理算法,Blackwell将在新型4位浮点AI推理能力下实现算力和模型大小翻倍。
● 第五代NVLink:为了提升万亿级参数模型和混合专家AI模型的性能,最新一代NVIDIA NVLink®为每块GPU提供突破性的1.8TB/s双向吞吐量,确保多达576块GPU之间的无缝高速通信,满足了当今最复杂LLM的需求。
● RAS引擎:采用Blackwell架构的GPU包含一个用于保障可靠性、可用性和可维护性的专用引擎。此外,Blackwell架构还增加了多项芯片级功能,能够利用AI预防性维护来运行诊断并预测可靠性相关的问题。这将最大程度地延长系统正常运行时间,提高大规模AI部署的弹性,使其能够连续不间断运行数周乃至数月,同时降低运营成本。
● 安全AI:先进的机密计算功能可以在不影响性能的情况下保护AI模型和客户数据,并且支持全新本地接口加密协议,这对于医疗、金融服务等高度重视隐私问题的行业至关重要。
● 解压缩引擎:专用的解压缩引擎支持最新格式,通过加速数据库查询提供极其强大的数据分析和数据科学性能。未来几年,每年需要企业花费数百亿美元的数据处理将越来越多地由GPU加速。
一个超大规模的超级芯片
NVIDIA GB200 Grace Blackwell超级芯片通过900GB/s超低功耗的片间互联,将两个NVIDIA B200 Tensor Core GPU与NVIDIA Grace CPU相连。
为了实现超高的AI性能,搭载GB200的系统可与同在今天发布的NVIDIA Quantum-X800 InfiniBand和Spectrum™-X800以太网平台连接。这两个平台均可提供速度高达800Gb/s的高性能网络。
GB200是NVIDIA GB200 NVL72的关键组件。NVIDIA GB200 NVL72是一套多节点液冷机架级扩展系统,适用于高度计算密集型的工作负载。它将36个Grace Blackwell超级芯片组合在一起,其中包含通过第五代 NVLink 相互连接的72个Blackwell GPU和36个Grace CPU。此外,GB200 NVL72还内置NVIDIA BlueField®-3数据处理器,可在超大规模AI云中实现云网络加速、组合式存储、零信任安全和 GPU 计算弹性。对于LLM 推理工作负载,相较于同样数量的 NVIDIA H100 Tensor Core GPU,GB200 NVL72最高可提供30倍的性能提升以及多达25倍的成本和能耗降低。
该平台可作为一个单GPU,具有1.4 exaflops的AI性能和30TB的快速内存,是组成最新一代DGX SuperPOD的基础模块。
NVIDIA提供的HGX B200是一个通过NVLink连接8块B200 GPU的服务器主板,支持基于x86的生成式AI平台。基于NVIDIA Quantum-2 InfiniBand和Spectrum-X以太网网络平台,HGX B200支持高达400Gb/s的网络速度。
Blackwell的全球合作伙伴网络
合作伙伴将从今年晚些时候开始供应采用Blackwell架构的产品。
AWS、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure将成为首批提供 Blackwell驱动实例的云服务提供商。同时NVIDIA云合作伙伴计划的公司Applied Digital、CoreWeave、Crusoe、IBM Cloud和Lambda也将提供上述服务。Indosat Ooredoo Hutchinson、Nebius、Nexgen Cloud、Oracle EU Sovereign Cloud、Oracle US, UK, and Australian Government Clouds、Scaleway、新加坡电信、Northern Data Group的Taiga Cloud、Yotta Data Service 的Shakti Cloud和YTL Power International等主权AI云也将提供基于Blackwell架构的云服务和基础设施。
GB200还将通过NVIDIA DGX™ Cloud提供,NVIDIA DGX™ Cloud是一个与领先的云服务提供商共同设计的AI平台,可为企业开发人员提供专门的基础设施和软件访问权限,使他们能够构建并部署先进的生成式 AI 模型。AWS、Google Cloud和Oracle Cloud Infrastructure计划在今年晚些时候托管采用NVIDIA Grace Blackwell的新实例。
Cisco、戴尔科技、慧与、联想和Supermicro预计将提供基于Blackwell产品打造的各种服务器。Aivres、永擎电子、华硕、Eviden、Foxconn、技嘉、Inventec、和硕、QCT、Wistron、纬颖和 ZT Systems 也将提供基于Blackwell的服务器。
此外,越来越多的软件制造商网络,包括工程仿真领域的全球领导者Ansys、Cadence和Synopsys,将使用基于Blackwell的处理器来加速其用于设计和仿真电气、机械和制造系统及零件的软件。他们的客户可以更低成本、更高能效地使用生成式AI和加速计算,来加速产品上市。
NVIDIA软件支持
Blackwell 产品组合由生产级AI端到端操作系统NVIDIA AI Enterprise支持。NVIDIA AI Enterprise中包含同日发布的NVIDIA NIM™推理微服务以及AI框架、程序库和工具,企业可以部署在由NVIDIA提供加速的云、数据中心及工作站上。了解关于 NVIDIA Blackwell 平台的更多信息,请观看GTC主题演讲回放并注册GTC以参加由NVIDIA和行业领导者带来的会议。本届GTC将持续举办至3月21日。