ChatGPT的现象级爆红,可带来哪些半导体产业链机遇?

发布时间:2023-03-03  

当前,最火的人工智能(AI)应用当属ChatGPT,它是OpenAI发布的聊天机器人程序。ChatGPT与用户对话时可结合上下文做出反应,还支持写代码、写邮件、写脚本、写文案等文字输出型任务。

由于ChatGPT在问答环节的优异表现,该程序一经推出就受到了全球市场的关注,上线两个月后注册用户人数就突破一亿。在此背景下,ChatGPT背后蕴含的巨大市场潜力还有待挖掘,该技术可望撬动海量的应用场景。

AI领域的从业者认为,ChatGPT是AIGC(AI Generated Content,利用人工智能技术来生成内容)应用的新起点,随着深度学习模型不断完善、开源模式的推动、大模型探索商业化的可能,AIGC有望进入应用爆发期。ChatGPT技术的商用落地,对半导体行业有哪些推动作用?

训练AI模型需海量算力资源

从本质上而言,ChatGPT是一类AI语言模型。官方资料显示,ChatGPT是在GPT 3.5模型基础上微调而成。ChatGPT与InstructGPT是姊妹模型,它们均采用了大型语言模型(Large Language Model,LLM)生成领域的新训练范式——RLHF(Reinforcement Learning from Human Feedback),即以强化学习方式依据人类反馈优化语言模型,两者仅在数据收集设置上有细微区别。

根据ChatGPT向用户的透露的信息,RLHF是一种使用了强化学习的方式,可直接优化带有人类反馈的语言模型。实际上,它涉及到多个模型和不同训练阶段,其技术可大致分解为以下三点:第一,预训练一个语言模型(LM) ;第二,聚合问答数据并训练一个奖励模型(Reward Model,RM);第三,用强化学习(RL)方式微调LM。总而言之,RLHF可增强人类对模型输出结果的调节,并且还能对结果进行更具理解性的排序。

关于ChatGPT的介绍 图片来源:OpenAI官网

再观察GPT 3.5之前的GPT-3模型,其参数量高达1,750亿个,训练所需数据量达45TB。通过使用RLHF的训练方法,即使InstructGPT只有13亿个参数量,它的输出效果也依旧优于GPT-3。OpenAI公布的资料显示,InstructGPT与ChatGPT是姊妹模型,由此可猜测两者的参数量可能相差不大。

也许有读者对于参数量缺乏具体的概念,本文通过列举一个通俗的例子来解释——2020年9月,微软获得了OpenAI GPT-3的独家授权,该公司为训练GPT-3建设了一个超算中心,该中心的超级计算机装载了一万张英伟达GPU。而训练GPT-3消耗了微软355个GPU年的算力(1块GPU运行355年的算力),单次训练费用更是高达460万美元。不过,截至发稿日,笔者未查询到ChatGPT模型训练费用信息。

ChatGPT是一个AI模型,它离不开算力的支持——在训练阶段,需要大量的语料数据来训练模型,在应用阶段,需要大算力服务器来支持模型的运行。即使ChatGPT的参数量可减少到数十亿个,训练和运行它也需消耗很大的计算资源。

推动智能计算机进一步发展

OpenAI ChatGPT的现象级走红,推动科技公司加快类ChatGPT产品的部署。近期,谷歌、微软、百度等企业都宣布将提供AI模型服务,其中谷歌将推出由LaMDA模型支持的对话式人工智能服务Bard,微软在搜索引擎Bing中嵌入了OpenAI的GPT-3.5,百度将推大模型新项目“文心一言”,最初版本将嵌入搜索服务中。

随着更多科技公司部署类ChatGPT服务,为训练AI模型将需要巨大的算力,这种需求也让一些企业看到了AI算力服务的商机。2023年2月10日,浪潮信息推出AI算力服务产品。该公司表示,将基于中国领先智算中心的算力基础设施,为中国客户提供AI算力资源和配套服务,支撑AI模型构建、训练和推理的业务全流程,赋力生成式AI产业创新。

当然,资金雄厚的科技巨头可能会搭建自己的计算中心。例如,前文所述的微软的超级计算机,该中心设备用于在Azure公有云上训练超大规模的AI模型。据了解,该中心装载了超过28.5万个CPU、1万个GPU,其中单个GPU服务器的网络连接能力达400Gb/s,该设备算力峰值达每秒可执行23.5-61.4个万亿浮点运算。

购买AI算力服务和搭建计算中心,都需要大规模的计算机设备的支持。

表1:超级计算机和智能计算机的区别

在进一步讨论时,首先要厘清一个概念——算力是代表处理数字化信息能力的强弱,不同类型的算力存在着较大的差别。比如,超级计算机的算力单位是FLOPS(每秒浮点运算能力),而智能计算机的算力单位是OPS(每秒操作次数),这是两个不同的概念。

另外,衡量算力水平还要考虑算力精度。瞭望智库指出,目前业界用于衡量超级计算的Linpack测试,测试的是超级计算机的“双精度浮点运算能力”,即64位浮点数字的计算(FP64)。此外,在以二进制所表示数字精度中,还有单精度(32位,FP32)、半精度(16位,FP16)以及整数类型(如INT8、INT4)等。数字位数越高,意味着精度越高、可支持的运算复杂程度越高,其能适配应用场景越广。

智能计算机是一种专用算力设备,它在推理或训练等智能计算方面表现出色,但大多数智能计算机不具备高精度数值计算能力;超级计算机是一种通用算力设备,其设计目标是提供完备、复杂的计算能力,在高精度计算能力更强,应用范围更广,主要被科研人员用于行星模拟、新材料开发、基因分析等科学计算和大数据处理。

AI模型训练只需用到智能计算机,但目前的智能计算机技术还不成熟,仅在模式识别、知识处理及开发智能等方面有应用。尽管当前该类设备还未达到预期目标,但它在文字、语音、图形图像识别与理解,以及机器翻译等领域取得了一些进展,同时相关初级产品也已经问世。

推动更多AI细分市场的发展

如前文所述,AIGC的出现有望撬动AI大规模落地的场景。同时,相关企业在多个AI产业链的布局将更深入。比如,在硬件层包括芯片和传感器,其中AI芯片主要有通用型的GPU、可定制的FPGA、专用的ASIC,以及类脑芯片。英伟达的Orin芯片基于通用GPU,地平线的征程5芯片,既是ASIC芯片,也是DSA(特定领域架构)芯片;类脑芯片有IBM的TrueNorth、英特尔的Loihi、高通的Zeroth、西井科技的DeepSouth、杭州电子科技大学的达尔文、aiCTX的DynapCNN处理器等。

整体而言,AI芯片供应商主要有英伟达、AMD、Intel、VelociHOST、景嘉微、地平线、寒武纪、比特大陆、复旦微、赛灵思、Altera(英特尔旗下)、异构智能、谷歌等;传感器部分有舜宇光学、禾赛科技等供应商;算法层有商汤科技、旷视科技、云从科技、依图科技、第四范式等;应用层有海康威视、科大讯飞、锐明技术等。

虽然智能计算机并不追求太大的算力频率,但是其对芯片的功耗和散热要求较高,所以,低功耗的FPGA和ASIC芯片在智能计算机上有更大的用武之地。与此同时,AI芯片也将从面向厂商的训练场景为主,转变为面向消费者的推理场景为主。业内AI专家对此评价称,GPU的高并行计算能力和高通用性的协调统一,在消费者时代的统治力或许难以为继,未来ASIC芯片、中国产GPGPU芯片或将能切入MaaS(出行即服务)产业生态。

服务器产业链的发展会受益吗?

或许会有读者联想到,理论上,更大的算力意味着更多的计算机设备,搭建这些设备也需要更多的核心器件。这是否意味着,企业对类ChatGPT技术的追求,对服务器产业链的发展起到积极的促进作用?

笔者在表2中列举了一些全球服务器产业链信息,主要涉及到关键器件及整机供应商。

表2:服务器核心器件及整机供应商不完全盘点

·服务器主板供应商

服务器主板是专门为满足服务器应用而开发,要求具备高稳定性、高性能、高兼容性的特点。本表列举的服务器主板供应商集中在中国和美国,比如美国的英特尔、超微;中国大陆的联想等,以及中国台湾的华硕、技嘉、微星、泰安(神达旗下)等。

·服务器CPU供应商

图1:x86服务器CPU与非x86服务器CPU的市场占比 制图:国际电子商情 数据来源:综合自各研报

截至2023年Q1,全球约有90%的服务器CPU采用x86架构,剩下的10%左右采用非x86架构。目前,英特尔占据了x86服务器CPU 90%以上的市场份额,同为x86架构阵营的AMD虽然近年来在PC CPU领域穷追猛打,但在服务器CPU方面其份额还难以撼动英特尔的地位。IBM的CPU采用Power架构,其全球市场占也比与英特尔低。另外,中国台湾的Cyrix(被威盛电子收购),中国大陆的海思、中科院计算所、天津飞腾、申威科技等也有服务器CPU产品,但这些企业的市占比与英特尔有很大的差距。

·GPU供应商

AI模型需要大量的深度学习和机器训练,比如参数量达1,750亿个的GPT-3,需要用到大量的英伟达V100(32GB)、A100和H100(80G)GPU产品的支持。目前,英伟达A100、H100 GPU产品已经被亚马逊AWS、微软Azure、谷歌云、甲骨文等公司采用。另据IDC统计资料显示,在中国的GPU服务器领域,英伟达的市占率也高达95%,几乎所有的云服务提供商和超算都采用英伟达的芯片来支持AI计算。

此外,AMD、Intel、VelociHOST等美资企业也生产GPU产品;中国的GPU供应商则有景嘉微、长沙韶光(航景科技子公司)等。

·存储相关供应商

本表格列举的存储相关供应商的业务涉及到内存、外存(硬盘)和内存接口芯片。

目前,内存接口芯片已经升级到DDR5世代,供应商有澜起科技、Rambus、IDT三家。虽然速率为4800MT/s的DDR5在PC笔电的渗透快于服务器,但是只有当传输速率达到6400MT/s时,PC端才需要搭载DDR5内存接口芯片。因此,当前DDR5内存接口芯片在服务器上的应用更多,预计在2022-2024年三年期间,服务器端DDR5的渗透率分别为15%、40%、60%。

内存供应商有韩国的SK海力士、三星电子等,美国的美光科技、金士顿等,中国的金泰克、芝奇(台湾)等;外存供应商有美国的西部数据(含旗下闪迪)、希捷等,中国的联想、金泰克等。

·服务器整机供应商

在服务器整机部分,笔者主要列举了中美两国的供应商。

美国有戴尔、HPE、IBM、思科等;中国有华为、新华三、浪潮、联想、中科曙光、山东超越等。

对服务器产业的利好短期内并不明显

超级计算机和智能计算机有多台服务器组成。客观上,科技企业对类ChatGPT服务的追捧,有利于全球服务器产业链的发展,但是这种作用恐怕难以在短期内体现。据分析机构的预测,2023年全球服务器整机市场的表现并不太好。

2023年1月底,集邦咨询修正了对2023年全球服务器整机市场的预测数据,增速下调至1.87%。该机构表示,受全球经济持续疲软影响,北美四大云端服务供应商下修了2023年服务器采购量,且数字可能将持续下调,下修幅度从大到小依次为Meta、微软、谷歌、亚马逊云科技。这四家企业的服务器采购量由原先预估的同比增长6.9%,降至4.4%,这将影响2023年全球服务器整机出货年增率下降到1.87%。

其实,已确定部署类ChatGPT的企业,主要是一些规模大、实力强的巨头,毕竟部署这类业务需要极大的算力,训练和验证模型的成本也非常昂贵。相信随着更多此类技术进一步产业化,市场上还会出现不同的细分业务模式。

文章来源于:国际电子商情    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。

相关文章

我们与500+贴片厂合作,完美满足客户的定制需求。为品牌提供定制化的推广方案、专属产品特色页,多渠道推广,SEM/SEO精准营销以及与公众号的联合推广...详细>>

利用葫芦芯平台的卓越技术服务和新产品推广能力,原厂代理能轻松打入消费物联网(IOT)、信息与通信(ICT)、汽车及新能源汽车、工业自动化及工业物联网、装备及功率电子...详细>>

充分利用其强大的电子元器件采购流量,创新性地为这些物料提供了一个全新的窗口。我们的高效数字营销技术,不仅可以助你轻松识别与连接到需求方,更能够极大地提高“闲置物料”的处理能力,通过葫芦芯平台...详细>>

我们的目标很明确:构建一个全方位的半导体产业生态系统。成为一家全球领先的半导体互联网生态公司。目前,我们已成功打造了智能汽车、智能家居、大健康医疗、机器人和材料等五大生态领域。更为重要的是...详细>>

我们深知加工与定制类服务商的价值和重要性,因此,我们倾力为您提供最顶尖的营销资源。在我们的平台上,您可以直接接触到100万的研发工程师和采购工程师,以及10万的活跃客户群体...详细>>

凭借我们强大的专业流量和尖端的互联网数字营销技术,我们承诺为原厂提供免费的产品资料推广服务。无论是最新的资讯、技术动态还是创新产品,都可以通过我们的平台迅速传达给目标客户...详细>>

我们不止于将线索转化为潜在客户。葫芦芯平台致力于形成业务闭环,从引流、宣传到最终销售,全程跟进,确保每一个potential lead都得到妥善处理,从而大幅提高转化率。不仅如此...详细>>