IT之家 6 月 19 日消息,据钛媒体 18 日报道,在近期举行的 2024 世界半导体大会暨南京国际半导体博览会的一场分论坛上,江苏鲲鹏・生态创新中心首席运营官王陶表示,集群是国内唯一已完成训练千亿参数大模型的技术路线,性能已经超过了 A100。
本文引用地址:王陶还透露,在中国大模型里面,有将近 50% 选择了技术路线。昇腾 芯片在训练效率层面最高可达 1.1 倍。在训练 Meta Llama、BloomGPT 等模型中,昇腾 的算力训练效率更是“大大优于” A100,“10 倍领先”于其他国产友商。
王陶表示,当前昇腾“已成为国产化大模型第一选择”。经过测试,科大讯飞也采用了的万卡集群,该集群与英伟达 A100 相比能达到 0.8~1.2 倍的效率。“在跟英伟达 A100(指 0.8 倍)的确还有一定差距,但在大模型训练这一块已跟英伟达 A100 芯片没有明显差距。特别是在万卡算力集群,包括鲲鹏云脑、科大讯飞这一块都经过了市场检验。”
据IT之家此前报道,去年 9 月举行的全连接大会 2023 期间,常务董事、ICT 基础设施业务管理委员会主任、企业 BG 总裁汪涛正式发布全新架构的昇腾 计算集群 ——Atlas 900 SuperCluster,可支持超万亿参数的大模型训练。新集群采用了全新的华为星河 AI 智算交换机 CloudEngine XH16800,借助其高密的 800GE 端口能力,两层交换网络即可实现 2250 节点(等效于 18000 张卡)超大规模无收敛集群组网。