据业内信息报道,昨天在美国旧金山举行的数据中心与人工智能技术发布会上, 正式发布了新一代的面向AI及HPC领域的GPU产品 Instinct MI 300系列,准备在 AI 芯片领域单杀。
其中,MI300A 集成了 1460 亿个,MI300X 更是集成了高达 1530 亿个晶体管,支持 192 GB 的 HBM3内存,几乎前面碾压了英伟达的 H100 芯片。此外 AMD 也推出了面向数据中心的第四代的 Epyc 产品。
AMD CEO苏姿丰认为,生成式 AI 和大语言模型(LLM)需要电脑的算力和内存大幅提高。预计今年,数据中心 AI 加速器的市场将达到 300 亿美元左右,到 2027 年将超过 1500亿美元,复合年增长率超过 50%。这意味着未来四年的 CAGR 将会超过 50%。
正是基于 AI 加速器市场的庞大需求和高速增长趋势,AMD 顺势推出了 Instinct MI300 系列,此次发布的包括 MI300A 和 MI300X。
MI300A 采用 Chiplet 设计,内部集成了 13 个小芯片,均基于台积电 5nm/6nm 制程工艺(CPU/GPU 计算核心为 5nm,HBM 内存和 I/O 等为 6nm),其中许多是 3D 堆叠的,以便创建一个面积可控的单芯片封装,总共集成 1460 亿个晶体管。
针对LLM进行优化的 MI300X 内部更是集成了12个 5nm/6nm 制程工艺的小芯片(HMB和 I/O 为 6nm),拥有 1530 亿个,内核设计放弃了 APU 的 24 个 Zen4 内核和 I/O 芯片采用 CDNA 3 GPU 和更大的 192GB HBM3 内存,带来高达 5.2TB/s 的带宽和896GB/s的Infinity Fabric带宽。
AMD表示 MI300X 提供的 HBM 密度是英伟达最新芯片 H100 的 2.4 倍,HBM带宽最高可达 H100 的 1.6 倍,MI300X 减少了 CPU 和 GPU 之间的数据移动使得功耗和延迟大大降低,可以运行比 H100 芯片更大的模型。
AMD在此次发布会上还对第四代 EPYC 处理器家族进行了更新,包括面向云原生计算的“Bergamo”系列新产品以及代号为 Genoa-X 的第四代 EPYC 3D V-Cache CPU 等。而且本次 总裁 Victor·Peng 表示要在开发软件生态系统上努力。