这是一个AI的时代,这是一个算力的时代。
遗憾的是,我们已经无缘接触到最先进的AI硬件和算力,用着H20这样阉割两次的N卡,还要支付上百亿元的费用,实在憋屈。
面对持续上涨的AI算力需求,我们唯有发展自己的国产方案,发展自己的大规模AI算力集群,才能突破围追堵截,走上康庄大道。
说到这里,很多人或许会第一时间想到华为,在美国制裁下顽强屹立突破的中国企业标杆,昇腾910B在AI算力领域也取得了一定的成就。
当然了,中国只依靠一个华为是不够的。中国的AI生态需要遍地开花,才有可能多点突破,让生态更繁荣。
目前来看,摩尔线程以全功能GPU走通用计算路线是另一条希望之路,尤其是它已经成为华为之外,另一家可以实现千卡千亿参数大模型训推的全国产AI芯片公司。
说起来,大家对摩尔线程并不陌生,其堪称中国自主GPU最大的希望,但很多人对摩尔线程的认知还停留在国产游戏显卡,其实不然,摩尔线程在AI上也实力突出。
自成立以来,摩尔线程做的就是通用GPU,跟英伟达一样,除了图形渲染,也能用于AI人工智能加速、科学计算。
经过三年多潜心发展,摩尔线程在AI GPU方面已经展现了强劲的实力,构建了一张从芯片、板卡、服务器,到集群、软件栈的全栈AI智算产品版图,并且已经多点落地、处处开花。
比如和清华系AI大模型公司无问芯穹的合作。摩尔线程是第一家接入无问芯穹,并成功完成千卡级别大模型训练的国产GPU公司。
摩尔线程的“夸娥”(KUAE)千卡智算集群,已与无穹Infini-AI大模型开发与服务平台完成系统级融合适配,并完成了LLama2 700亿参数大模型的训练测试。近期,双方又完成了“MT-infini-3B” 3B(30亿参数)大模型的实训。
这意味着什么呢?这是行业首个基于国产GPU芯片的从0到1的端到端大模型实训案例。夸娥也成为业内首个成功跑通并完整运行国产大模型的千卡集群。
无问芯穹联合创始人兼CEO夏立雪表示力挺:“经过无问芯穹Infini-AI平台的实训与联合优化工作验证,摩尔线程夸娥千卡智算集群在精度、性能、易用性和算力利用率上均有优异表现,而且在实训中实现了长时间稳定训练不中断,可以为千亿参数级别大模型训练提供持续高效的高性能算力支持。”
另外,滴普科技、实在智能等也基于摩尔线程的夸娥千卡智算集群,成功完成了不同参数量级的大模型分布式训练测试,效率、精度、稳定性都相当完美。基于摩尔线程夸娥千卡智算集群,滴普科技成功完成了700亿参数LLaMA2大语言模型的预训练测试,训练时长共计77小时,全程无故障连续运行,集群训练稳定性达到100%。
夸娥(KUAE)是摩尔线程推出的智算中心全栈解决方案,而夸娥这个名字来自我国神话传说中的大力神夸娥氏,
可以说,为AI算力集群取这么一个名字,充分展现了独属于中国人的坚忍不拔和浪漫情怀。出自《愚公移山》:“帝感其诚,命夸娥氏二子负二山,一厝朔东,一厝雍南。自此,冀之南,汉之阴,无陇断焉。”
夸娥解决方案的基本节点是大模型智算加速卡MTT S4000组成的双路八卡GPU服务器“MCCX D800”,以软硬件一体化交付、开箱即用的方式,高可靠地解决大规模GPU算力的建设和运营管理问题。
MTT S4000是摩尔线程新一代专为AI大模型打造的智算加速卡,基于其自主研发的第三代MUSA架构。
利用自研的MTLink互连技术,MTT S4000可以高效千卡并行,线性加速比高达91%以上。
最为关键的是,摩尔线程拥有自研的全功能GPU MUSA统一系统架构,包括指令集架构、MUSA 编程模型、驱动、运行时库、算子库、通讯库、数学库等,而且充分兼容CUDA软件生态,代码可以几乎零成本迁移,也无需担心未来的可用性问题。
MTT S4000不但可用于大规模AI计算,还具备领先的图形渲染能力、视频编解码能力、8K超高清显示能力。
这使得它可为数字孪生、云游戏、云渲染、数字内容创作等场景提供支持,并配合大模型推理能力,服务于AIGC等多模态业务场景。
从2024年的趋势来看,多模态需求将快速崛起,英伟达CFO Colette Kress曾预计这块业务将从零增长至数十亿美元,对国产芯片来说也同样如此。