讯飞星火与华为数据存储强强联手,“以存强算” 助力AI集群算力利用率飙升30%

发布时间:2024-10-28 09:59  

在风云变幻的AI大模型时代,科大讯飞与华为的联合拓展令人印象深刻。过去几年来,双方协同创新突破重重障碍,一次次证明国产算力基础设施可以支撑国产AI大模型良性发展,在关键性能和体验上不输世界领先玩家,同时具备更佳的成本效益。

10月24日,以“万物智联 生生不息”为主题的科大讯飞全球1024开发者节隆重举行。下午的央国企论坛上,科大讯飞与华为再度强强联手,共同发布讯飞星火&华为数据存储AI解决方案,将AI集群算力利用率提升30%,助力国产大模型创新突围,在业内树立起“以存强算”的又一标杆。


该AI存储解决方案通过华为OceanStor A系列全新硬件、讯飞星火基础大模型软硬协同,深度优化,可支持万亿参数大模型,大规模算力集群的训推任务,实现训推全流程加速,助力大模型算力利用率大幅提升,为业界输出了一份凝结双方技术与经验的标准方案。

极致性能“以存强算”,AI集群算力利用率提升超30%

根据规模定律(Scaling Law),更强的算力加上更多的有效训练数据,可以得到更好的AI大模型。这意味着,大模型的训练和推理不仅需要强大的算力支持,还需要高效的存储系统来保证数据的快速读写和处理,存储系统的性能直接影响到大模型的训练效率和效果‌。为了解决大模型训练中的存储挑战,需要采用高性能的存储方案。例如,使用高性能NAS存储系统可以显著提高数据读写速度,减少训练过程中的等待时间‌。此外,优化存储架构和采用更适合大模型训练的存储解决方案,也可以提高训练效率‌。      此番发布的讯飞星火&华为数据存储AI解决方案,正采用了华为新一代OceanStor A系列AI存储,通过创新数控分离架构,高性能并行客户端,实现了百TB级带宽,百亿级IOPS,将训练集加载效率提升8倍,断点续训速度提升4倍,最终使得AI集群算力的利用率提升了超过30%。      资料显示,随着大模型集群规模增长,集群的算力利用率并未同步提升,千卡以上大模型算力利用率不足50%。而科大讯飞联合华为搭建的大规模AI集群,算力利用率常年保持在60%以上的高位,大幅领先于业内水平,背后的支撑之一正是华为数据存储提供的高性能存力底座。

超大规模调度,AI数据湖让大模型数据全局可管可用

在追求存储性能的同时,存储容量也是大模型存力底座的关键。随着AI技术快速发展,AI大模型从单模态发展到多模态,短短数年时间大模型训练的数据量已呈现1000倍的增长,亟需为AI算力集群建设AI数据湖,规模扩展并打破数据烟囱,实现全局流动可管可用。       大模型训练需要处理的数据通常以图片、文档等小文件的形式存在,传统的存储系统面对这些小文件存在加载速度慢的问题,影响训练效率‌。企业拥抱大模型首当其冲便是要对这些海量多源异构数据进行高效管理,做好数据归集、预处理等准备工作,才能保障大模型训练的效率及效果。       在这个维度,华为新一代OceanStor A系列AI存储具备无损多协议互通、冷热数据智能分级专业存储能力,支持512控横向大规模扩展能力,支持EB级存储空间;通过使用统一的AI数据湖存储大模型数据,可实现冷热数据分级存储,跨越数据孤岛,打破数据界限,确保了模型内数据的高效流动,为大模型训练做好充分的数据准备。伴随着讯飞星火&华为数据存储AI解决方案的发布,讯飞星火训推平台的AI数据湖成功经验也浮出水面。据介绍,经过多轮技术迭代演进,讯飞建设AI数据湖底座,有效支撑了十万亿参数级别的通用多模态大模型训练,并大幅提升了集群算力利用率。

技术与经验深度耦合,构建AI Ready的数据基础设施

值得注意的是,此次发布的讯飞星火&华为数据存储AI解决方案并非双方的“即兴之作”,此前双方便在存算分离、统一存储平台等方面展开了合作。随着大模型持续演进,两家又于去年7月正式启动AI存力底座的联合创新项目,旨在共同打造面向AI大模型场景的最佳数据存储解决方案。实际上,在驱动AI发展的三驾马车中,随着算力逐渐趋同、算法加速收敛,蓬勃发展的数据成了影响大模型效果的核心要素。业界也逐渐意识到,数据规模和质量决定AI智能的高度,为了提升从数据获取、数据预处理、模型训练、推理应用的AI全流程效率,消除数据孤岛带来的海量数据搬迁,一个高性能、稳定可靠的统一存力底座是必不可少的基石。       为此,科大讯飞在依托全国产化算力平台打造讯飞星火认知基础大模型时,也基于大模型数据和训练闭环全流程设计、训练和推理一体化设计的思路,自研超大规模大模型训练平台,迭代升级自家的大模型,先行先试趟出了一条探索Storage for AI、构建AI Ready的数据基础设施的“讯飞之道”。       资料显示,在讯飞大模型训练平台的加持下,讯飞星火大模型历经数个版本的升级,目前已在文本生成、语言理解、知识问答、逻辑推理、数学能力、代码能力、多模交互7大核心能力维度实现全国领先,通过中国信通院AIGC大模型基础能力评测并获得4+级的高评分,部分能力更是全面超过OpenAI的最新模型GPT-4 Turbo。       实践出真知,相信这种源自讯飞星火与华为数据存储双方的技术与经验,深度耦合而“孵化”出来的AI存储解决方案,必将能够加速AI Ready的数据基础设施建设,为客户带来高性能、高扩展和更智能的AI训推体验,推动AI产业发展,将AI大模型的算力真正转化为企业组织的新质生产力!

文章来源于:ECCN    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。

相关文章

我们与500+贴片厂合作,完美满足客户的定制需求。为品牌提供定制化的推广方案、专属产品特色页,多渠道推广,SEM/SEO精准营销以及与公众号的联合推广...详细>>

利用葫芦芯平台的卓越技术服务和新产品推广能力,原厂代理能轻松打入消费物联网(IOT)、信息与通信(ICT)、汽车及新能源汽车、工业自动化及工业物联网、装备及功率电子...详细>>

充分利用其强大的电子元器件采购流量,创新性地为这些物料提供了一个全新的窗口。我们的高效数字营销技术,不仅可以助你轻松识别与连接到需求方,更能够极大地提高“闲置物料”的处理能力,通过葫芦芯平台...详细>>

我们的目标很明确:构建一个全方位的半导体产业生态系统。成为一家全球领先的半导体互联网生态公司。目前,我们已成功打造了智能汽车、智能家居、大健康医疗、机器人和材料等五大生态领域。更为重要的是...详细>>

我们深知加工与定制类服务商的价值和重要性,因此,我们倾力为您提供最顶尖的营销资源。在我们的平台上,您可以直接接触到100万的研发工程师和采购工程师,以及10万的活跃客户群体...详细>>

凭借我们强大的专业流量和尖端的互联网数字营销技术,我们承诺为原厂提供免费的产品资料推广服务。无论是最新的资讯、技术动态还是创新产品,都可以通过我们的平台迅速传达给目标客户...详细>>

我们不止于将线索转化为潜在客户。葫芦芯平台致力于形成业务闭环,从引流、宣传到最终销售,全程跟进,确保每一个potential lead都得到妥善处理,从而大幅提高转化率。不仅如此...详细>>