AI大模型的算力焦虑,最终要靠CPU?

发布时间:2024-03-19  

ChatGPT引发的AI大模型概念已经持续火爆一年,直至今日,AI的热度不仅没有下降,行业也迸发出越来越多具有颠覆性的应用。2024年初以来,AI PC、AI手机、AI边缘等产品相继开售,过年期间,Sora又引发了大规模讨论。


可以说,AI领域,永远都在革新。但随着大模型对算力需求的高速增长,现阶段生产的芯片很难满足业界需求。


在AI热潮之中,GPU、AISC等加速器是行业中的主角。而事实上,任何数据中心都无法脱离CPU,比喻起来就是鱼和水的关系。去年12月,英特尔第五代至强可扩展处理器(代号为Emerald Rapids)正式面世,它有着许多令人惊喜的AI秘籍。


做AI,只有一个选择?


众所周知,面对大模型这一新风口,全球科技公司均将目光投向了AI芯片,特别是GPU。但GPU的产量与HBM,或者说2.5D封装能力直接挂钩。这让本就供应吃紧的GPU再遇瓶颈,导致供需严重失衡。


与之相悖的是,眼下AI大模型“拼杀”的关键在于做大参数量,用“力大砖飞”实现更为强大的智能涌现。可以说,即便是面对AI芯片涨价,多少公司也会选择购买,毕竟错过这个风口,或许就会失去竞争力。


对于大型数据中心来说,每颗芯片都在牟足力气,全功率地运行着,如果能拥有更多AI性能,那么,还需要额外购置一批GPU吗?


事实上,我们都陷入了一种思维定势,其实跑AI并非只有GPU一个选择,CPU也已经具备很强大了AI性能。


亚信科技就在自家OCR-AIRPA方案中采用了CPU作为硬件平台,实现从FP32到INT8/BF16的量化,从而在可接受的精度损失下,增加吞吐量并加速推理。将人工成本降至原来的五分之一到九分之一,效率还提升5~10倍。


被改变的,不只是互联网和通信领域,AI制药被看作是终结药物研发“双十定律”的希望,在这个领域中AlphaFold2 这类大型模型被视为最重要的算法。去年开始,至强可扩展平台就开始使AlphaFold2端到端的通量提升到了原来的23.11倍,而第四代可扩展处理器让这个数值再次提升3.02倍。


可以说,将CPU用于AI推理正在不断证实可行。而现在,第五代至强可扩展处理器能够在无需添加独立加速器的前提下,运行高达200亿参数的模型推理,且延迟低于100毫秒。一款为AI加速而生,且表现更强的处理器诞生了。


CPU,怎么AI跑起来


很多人会奇怪,为什么第五代至强作为一个通用处理器,能够运行AI负载?事实上,除了本身落在第五代至强的AI负载,其中内置的一系列的加速器是关键。


这种设计可以与时下MCU(单片机)的流行做法进行对比,通过内置DSP、NPU,分走一部分部分AI负载,让AI任务跑得更高效,从而更省电,至强也是类似的原理。


这种设计在早期的至强可扩展处理器中就出现过,只不过,那时候大家没有过多关注,也没有那么AI任务需要跑。


具体看第五代至强,其内置的英特尔AVX-512及英特尔® AMX(英特尔®高级矩阵扩展)功能是关键,这两个加速器在第四代至强中就已搭载,而在第五代至强中,AMX支持新的FP16指令,同时混合AI工作负载性能提高2~3倍。


加之第五代至强本身性能的提升,使其本身性能就能更从容应对AI负载:CPU核心数量增加到64个,单核性能更高,每个内核都具备AI加速功能;采用全新I/O技术(CXL、PCIe5),UPI速度提升。


根据行业人士分析,CPU做大模型推理,最大的难点不在计算能力,而在内存带宽。第五代至强的内存带宽从4800 MT/s提高至5600 MT/s,三级缓存容量提升至近3倍之多,同时插槽可扩展性,支持从一个插槽扩展至八个插槽,这些都为第五代至强支持大模型提供了坚实的后盾。



从数据上来看,与上一代产品相比,第五代至强相同热设计功耗下平均性能提升21%;与第三代产品比,平均性能提升87%。相较于前一代产品,第五代至强不仅迭代了性能,还带来了42%的AI推理性能提升。


此外,在一系列加速器中,英特尔®可信域拓展(英特尔® TDX)提供虚拟机(VM)层面的隔离和保密性,从而增强隐私性和对数据的管理。


不止如此,第五代至强还是迄今为止推出的最“绿色”的至强处理器,它能够帮助用户管理能耗,降低碳足迹。可以说,软件只是一方面,归功于第五代至强内的多种创新技术和功能,搭配干活,效率更高,最终体现出来的就是更低的功耗。


CPU未来发展趋势,一定是拼功耗,这需要全方位发力。首先是工艺,随着工艺逐渐提升到Intel 3、Intel 20A、Intel 18A,功耗会越来越低,每一代都会有两位数的功耗降低。封装也一样,使用先进的封装技术把不同制程的芯片通过Chiplet架构放在一起,进行一个运算,并不需要把所有地方都用起来,而是只使用对应的区域,这样功耗自然就降低了。还有,就是针对不同的工作负载做优化。


有时候调整应用程序的架构也可以最大限度地降低功耗。举例来说,如果要训练大模型,假设总共有20个大模型,每个模型的训练周期为3个月,需要1000台机器来训练,每台机器功率为1万瓦。如果规定只需训练其中的5个模型,而剩下的15个模型不需要训练,这样就能节省75%的电能。因此,有时候通过调整应用程序的架构,可以更有效地降低功耗。


“随着算力的持续高速发展,如何实现数据中心的节能减碳,改变‘电老虎’的形象,对寻求采用可再生能源和更环保的技术方面有了更高的需求。”英特尔数据中心与人工智能集团副总裁兼中国区总经理陈葆立对AI大模型时代提出了这样的担忧,第五代至强就是节能减碳的关键。


与此同时,英特尔也有一系列的产品和技术创新,如通过更高效的冷却技术、智能能源管理系统等推动新型和存量数据中心进行节能减排,并携手中国合作伙伴推动应用落地。


英特尔如何支撑起AI开发


GPU的发展,软件生态也起到了至关重要的作用,比如行业无人不知的CUDA。对英特尔来说,软件一直以来都是强项,与此同时,英特尔发力软件堆栈,不断加大投资,这为第五代至强在AI方面的发展带来了巨大的天然优势。


英特尔一直以来,都比较强调统一性和易用性,在AI方面亦如如此。开发者可以通过利用OpenVINO,实现“一次编写,随处部署”的愿景。英特尔开发的基础软件和数据库通过Pytorch和ONNX Runtime等流行框架支持自身的 CPU、GPU、IPU和AI加速器。


此外,英特尔还提供了PyTorch和TensorFlow的库扩展,这将有助于开发者使用默认安装运行这些扩展以获得最新的软件加速。这意味着,用户既可以继续使用PyTorch或TensorFlow,也可以利用OpenVINO进行开发,掌握不同语言的开发者都能在同样一个平台下开发。


值得一提的是,OpenVINO 2023.1版本正在加速英特尔追求的“任何硬件、任何模型、任何地方”的目标实现,即逐步扩展OpenVINO成为跨客户端与边缘端的、针对推理与部署运行AI模型的完整软件环境。


“我认为ChatGPT技术不仅仅是关于人类语言、英语语言,还有编程语言。因此,可以实现生产力的提高。你可以从ChatGPT和其他类似的技术中生成自动代码审查。我认为这里有许多机会,但我认为它存在于行业领先公司正在使用的Python编程模型中。它不是刚刚兴起的,已经出现了一段时间,我们极客称为SMLAR技术。”英特尔专家曾经这样分享道。


简单解释,就是“鸡生蛋、蛋生鸡”的关系,也就是说,未来AI大模型还会用在开发AI大模型上。现在CUDA就已经开始有了这样的动作,英特尔也正蓄势待发。



在2月末刚刚结束的MWC2024上,英特尔展示了最多具备288个核心的能效核(E-core)处理器Sierra Forest,性能核(P-core)处理器Granite Rapids 也正蓄势待发。可以说,未来在AI推理领域,至强还会更强。

文章来源于:电子工程世界    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。

相关文章

    「涌现」的门槛。 而比起更大的 50B-70B,34B 是单卡推理可接受的模型尺寸的上限,训练成本对开发者更友好,经过量化的模型可以在一张消费级显卡(如4090)上进行高效率的推理,对开......
    创新手段成功实现了GPU内存容量的扩展,效果显著惊人,创新的存算解决方案使用的是不禁售显卡,解决了购买难、高投入成本的痛点。以实现70B高算力的大模型训练为例,仅用4张不禁售的中阶显卡搭配2张铨兴添翼AI......
    边缘AI服务器引发新浪潮:从云端到边缘的转型;近年来,在AIoT数据量快速成长、硬件效能提升、绿色低碳意识抬头等趋势影响下,边缘AI应用的系统架构也出现改变。随着越来越多企业将AI模型训练......
    大于1000B模型的训练与微调任务,现有市场方案依靠多显卡集群的方式拼凑显存与算力。现行的多显卡集群方式投入成本昂贵,且高性能GPU算力卡国内限购,成本高,后续维护进阶难,极大程度阻碍AI应用场景落地,导致......
    华首度将服务器等级芯片平台导入至边缘系统,它能额外扩充最多4张单槽显卡或2张双槽显卡,具备相当强大的AI运算能力,整合群联“aiDAPTIV+”技术,最高可以支持大型语言模型LLaMA2 70B的地端微调训练,满足企业在边缘端进行AI模型训练......
    (LMM),更进一步完善 AI 模型训练流程,包括通过 RAG 选择适用模型训练数据(Datasets)建立与微调,以及程序内验证的全面工作流程。藉由 LLM 协助,用户......
    和分析改变企业知识管理,提高生产力并改善决策。定制大型语言模型(LLM)提高了准确性,而边缘训练则增强了数据隐私属性(成本相应提高)。该方案支持大型语言模型(LLM)微调配备1-4个显卡和SQ AI100 AI SSD......
    示:“摩尔线程KUAE智算中心的正式启用,是公司发展的重要里程碑。摩尔线程构建了从芯片到显卡到集群的智算产品线,依托全功能GPU的多元计算优势,旨在满足不断增长的大模型训练和推理需求,以绿色、安全......
    平台,他表示:“摩尔线程KUAE智算中心的正式启用,是公司发展的重要里程碑。摩尔线程构建了从芯片到显卡到集群的智算产品线,依托全功能GPU的多元计算优势,旨在满足不断增长的大模型训练和推理需求,以绿......
    以及数据管理等方面的苛刻要求。同时,浪潮信息尝试性提出GPU计算集群算力与存储集群聚合带宽的推荐配比,实现检测点数据60秒内写入和读取恢复,提高大模型训练效率。 大模型时代,数据基础设施挑战升级 随着......

我们与500+贴片厂合作,完美满足客户的定制需求。为品牌提供定制化的推广方案、专属产品特色页,多渠道推广,SEM/SEO精准营销以及与公众号的联合推广...详细>>

利用葫芦芯平台的卓越技术服务和新产品推广能力,原厂代理能轻松打入消费物联网(IOT)、信息与通信(ICT)、汽车及新能源汽车、工业自动化及工业物联网、装备及功率电子...详细>>

充分利用其强大的电子元器件采购流量,创新性地为这些物料提供了一个全新的窗口。我们的高效数字营销技术,不仅可以助你轻松识别与连接到需求方,更能够极大地提高“闲置物料”的处理能力,通过葫芦芯平台...详细>>

我们的目标很明确:构建一个全方位的半导体产业生态系统。成为一家全球领先的半导体互联网生态公司。目前,我们已成功打造了智能汽车、智能家居、大健康医疗、机器人和材料等五大生态领域。更为重要的是...详细>>

我们深知加工与定制类服务商的价值和重要性,因此,我们倾力为您提供最顶尖的营销资源。在我们的平台上,您可以直接接触到100万的研发工程师和采购工程师,以及10万的活跃客户群体...详细>>

凭借我们强大的专业流量和尖端的互联网数字营销技术,我们承诺为原厂提供免费的产品资料推广服务。无论是最新的资讯、技术动态还是创新产品,都可以通过我们的平台迅速传达给目标客户...详细>>

我们不止于将线索转化为潜在客户。葫芦芯平台致力于形成业务闭环,从引流、宣传到最终销售,全程跟进,确保每一个potential lead都得到妥善处理,从而大幅提高转化率。不仅如此...详细>>