1530 亿晶体管!AMD 全新 AI 芯片欲单杀英伟达

发布时间:2023-06-15  

据业内信息报道,昨天在美国旧金山举行的数据中心与人工智能技术发布会上, 正式发布了新一代的面向AI及HPC领域的GPU产品 Instinct MI 300系列,准备在 AI 芯片领域单杀。

其中,MI300A 集成了 1460 亿个,MI300X 更是集成了高达 1530 亿个晶体管,支持 192 GB 的 HBM3内存,几乎前面碾压了英伟达的 H100 芯片。此外 AMD 也推出了面向数据中心的第四代的 Epyc 产品。

AMD CEO苏姿丰认为,生成式 AI 和大语言模型(LLM)需要电脑的算力和内存大幅提高。预计今年,数据中心 AI 加速器的市场将达到 300 亿美元左右,到 2027 年将超过 1500亿美元,复合年增长率超过 50%。这意味着未来四年的 CAGR 将会超过 50%。

正是基于 AI 加速器市场的庞大需求和高速增长趋势,AMD 顺势推出了 Instinct MI300 系列,此次发布的包括 MI300A 和 MI300X。

MI300A 采用 Chiplet 设计,内部集成了 13 个小芯片,均基于台积电 5nm/6nm 制程工艺(CPU/GPU 计算核心为 5nm,HBM 内存和 I/O 等为 6nm),其中许多是 3D 堆叠的,以便创建一个面积可控的单芯片封装,总共集成 1460 亿个晶体管。

针对LLM进行优化的 MI300X 内部更是集成了12个 5nm/6nm 制程工艺的小芯片(HMB和 I/O 为 6nm),拥有 1530 亿个,内核设计放弃了 APU 的 24 个 Zen4 内核和 I/O 芯片采用 CDNA 3 GPU 和更大的 192GB HBM3 内存,带来高达 5.2TB/s 的带宽和896GB/s的Infinity Fabric带宽。

AMD表示 MI300X 提供的 HBM 密度是英伟达最新芯片 H100 的 2.4 倍,HBM带宽最高可达 H100 的 1.6 倍,MI300X 减少了 CPU 和 GPU 之间的数据移动使得功耗和延迟大大降低,可以运行比 H100 芯片更大的模型。

AMD在此次发布会上还对第四代 EPYC 处理器家族进行了更新,包括面向云原生计算的“Bergamo”系列新产品以及代号为 Genoa-X 的第四代 EPYC 3D V-Cache CPU 等。而且本次 总裁 Victor·Peng 表示要在开发软件生态系统上努力。

1530 亿晶体管!AMD 全新 AI 芯片欲单杀英伟达

文章来源于:21IC    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。

我们与500+贴片厂合作,完美满足客户的定制需求。为品牌提供定制化的推广方案、专属产品特色页,多渠道推广,SEM/SEO精准营销以及与公众号的联合推广...详细>>

利用葫芦芯平台的卓越技术服务和新产品推广能力,原厂代理能轻松打入消费物联网(IOT)、信息与通信(ICT)、汽车及新能源汽车、工业自动化及工业物联网、装备及功率电子...详细>>

充分利用其强大的电子元器件采购流量,创新性地为这些物料提供了一个全新的窗口。我们的高效数字营销技术,不仅可以助你轻松识别与连接到需求方,更能够极大地提高“闲置物料”的处理能力,通过葫芦芯平台...详细>>

我们的目标很明确:构建一个全方位的半导体产业生态系统。成为一家全球领先的半导体互联网生态公司。目前,我们已成功打造了智能汽车、智能家居、大健康医疗、机器人和材料等五大生态领域。更为重要的是...详细>>

我们深知加工与定制类服务商的价值和重要性,因此,我们倾力为您提供最顶尖的营销资源。在我们的平台上,您可以直接接触到100万的研发工程师和采购工程师,以及10万的活跃客户群体...详细>>

凭借我们强大的专业流量和尖端的互联网数字营销技术,我们承诺为原厂提供免费的产品资料推广服务。无论是最新的资讯、技术动态还是创新产品,都可以通过我们的平台迅速传达给目标客户...详细>>

我们不止于将线索转化为潜在客户。葫芦芯平台致力于形成业务闭环,从引流、宣传到最终销售,全程跟进,确保每一个potential lead都得到妥善处理,从而大幅提高转化率。不仅如此...详细>>