3 月 19 日消息,英伟达今日发布了地表最强的 AI 加速卡--Blackwell GB200,采用台积电 4NP 工艺制程,配备 192 HBM3E 内存,共有 2080 亿个晶体管,推理大语言模型性能比 H100 提升 30 倍,成本和能耗降低 96%。
SK 海力士今日发布新闻稿宣布其最新的超高性能 AI 内存产品 HBM3E 已开始量产,并将从本月下旬起向客户供货,距离去年 8 月宣布开发仅隔了 7 个月。
据介绍,SK 海力士是首家实现量产 HBM3E 供应商,HBM3E 每秒可处理 1.18TB 数据,相当于在 1 秒内可处理 230 部全高清(FHD)级电影。
由于 AI 对内存的运行速度要求极高,HBM3E 相比前几代产品更注重散热方面的表现。SK 海力士表示,其 HBM3E 采用先进的 MR-MUF 技术,散热性能较上一代产品提高了 10%,从而在散热等所有方面都达到了全球最高水平。
据悉,MR-MUF 是一种将半导体芯片堆叠后,为了保护芯片和芯片之间的电路,在其空间中注入液体形态的保护材料,并进行固化的封装工艺技术。与每堆叠一个芯片时铺上薄膜型材料的方式相较,工艺效率更高,散热方面也更加有效。
SK 海力士 HBM 业务担当副社长柳成洙表示,“公司通过全球首次 HBM3E 投入量产,进一步强化了领先用于 AI 的存储器业界的产品线”,还表示,“以至今积累的 HBM 业务成功经验为基础,将进一步夯实与客户的关系,并巩固‘全方位人工智能存储器供应商’的地位。”
除 SK 海力士外,其竞争对手三星电子和美光也已经在向 Nvidia 提供 HBM3E 样品,但它们还需要完成最终的质量认证测试,以确保产品能够达到出货质量要求,而 SK 海力士比预先安排的档期提前了至少两个月。
目前,NVIDIA 已经占据 AI GPU 市场 90% 以上的份额;而在存储领域,SK 海力士已经占据全球 HBM 市场一半以上的份额,更是 100% 垄断了 128GB DDR5 这类大容量 DRAM 产品市场。