一切都是为了生成式AI。
2022年,DRIVE Thor发布时,ChatGPT还没有火,大语言模型(LLM)也并不被人所熟知。而随着如今Transformer、大语言模型和生成式AI成为行业标配后,汽车也开始走大模型上车的路线。因此在GTC 2024上,NVIDIA公布NVIDIA DRIVE Thor将采用最新推出的Blackwell 架构GPU。
Blackwell GPU 架构搭载六项变革性的加速计算技术,这些技术将助推数据处理、工程模拟、电子设计自动化、计算机辅助药物设计、量子计算和生成式 AI 等领域实现突破,这些都是 NVIDIA 眼中的新兴行业机遇。该平台可使世界各地的机构都能够在万亿参数的大语言模型(LLM)上构建和运行实时生成式 AI,其成本和能耗较上一代产品降低多达 25 倍。
NVIDIA汽车事业部副总裁吴新宙表示:“加速计算为生成式AI等领域带来了变革性突破,而生成式AI则正在重新定义自动驾驶和全球交通运输业。DRIVE Orin仍然是当今智能车型首选的AI车载计算平台,同时,我们看到移动出行领域的领先企业富有远见地将NVIDIA DRIVE Thor纳入其下一代AI汽车产品路线图中。”
车企纷纷力挺
除了此前公布的理想汽车和极氪之外,GTC上DRIVE Thor又迎来了多个车企的重磅加盟。
包括比亚迪、广汽埃安宣布旗下高端豪华品牌昊铂以及小鹏等诸多电动汽车知名企业都宣布将采用DRIVE Thor。
另外,包括Nuro、Plus、Waabi、文远知行、联想车计算等都加入到DRIVE Thor的支持中。
BlackWell详解
在GTC上,详细公布了BlackWell架构的六大变革性技术,Blackwell 能够在拥有最高 10 万亿参数的模型上实现 AI 训练和实时 LLM 推理。
全球最强大的芯片:Blackwell 架构 GPU 具有 2080 亿个晶体管,采用专门定制的双倍光刻极限尺寸 4NP TSMC 工艺制造,通过 10 TB/s 的片间互联,将 GPU 裸片连接成一块统一的 GPU。
第二代 Transformer 引擎:得益于全新微张量缩放支持,以及集成于 NVIDIA TensorRT-LLM 和 NeMo Megatron 框架中的 NVIDIA 先进动态范围管理算法,Blackwell 将在新型 4 位浮点 AI 推理能力下实现算力和模型大小翻倍。
第五代 NVLink:为了提升万亿级参数模型和混合专家 AI 模型的性能,最新一代 NVIDIA NVLink 为每块 GPU 提供突破性的 1.8TB/s 双向吞吐量,确保多达 576 块 GPU 之间的无缝高速通信,满足了当今最复杂 LLM 的需求。
RAS 引擎:采用 Blackwell 架构的 GPU 包含一个用于保障可靠性、可用性和可维护性的专用引擎。此外,Blackwell 架构还增加了多项芯片级功能,能够利用 AI 预防性维护来运行诊断并预测可靠性相关的问题。这将最大程度地延长系统正常运行时间,提高大规模 AI 部署的弹性,使其能够连续不间断运行数周乃至数月,同时降低运营成本。
安全 AI:先进的机密计算功能可以在不影响性能的情况下保护 AI 模型和客户数据,并且支持全新本地接口加密协议,这对于医疗、金融服务等高度重视隐私问题的行业至关重要。
解压缩引擎:专用的解压缩引擎支持最新格式,通过加速数据库查询提供极其强大的数据分析和数据科学性能。未来几年,每年需要企业花费数百亿美元的数据处理将越来越多地由 GPU 加速。