Meta首度公开自研AI芯片,估2025年正式问世

2023-05-20  

Facebook母公司Meta加入Google、亚马逊、微软的半导体大战,首度公开自行研发AI芯片进展。

Meta正在打造特别为AI设计的基础设施架构,涵盖硬件与软件堆栈的各个层面,以及串联这些技术的定制化网络,包括Meta第一款用于执行AI模型的定制芯片、针对AI最佳化的数据中心设计,以及目前进展至第二阶段的AI超级计算机。

名为Meta Trainingand Inference Accelerator(MTIA)的全新ASIC芯片,是Meta第一款自行研发的定制芯片,宣称运算效能和处理效率胜过CPU,专门用于处理与AI推荐系统相关的工作,帮助用户找出最佳贴文内容并更快呈现在你眼前。Meta在2020年开发出第一代MTIA(MTIA v1),采用台积电7纳米制程。而据国外媒体TechCrunch报道,MTIA至少要到2025年才会正式问世、投入服务当中。

除了MTIA,Meta自行研发另一款芯片,是称为Meta Scalable Video Processor(MSVP)的ASIC芯片,以支持持续成长的影音内容处理需求,最终希望将大部分成熟且稳定的影音内容处理工作交由MSVP执行。

至于Meta新一代数据中心设计除了将支持现有产品以外,更将协助未来新的AI硬件展开训练和推理。新的数据中心针对AI优化,支持液体冷却式AI硬件设备和高效AI网络,将数千个AI芯片串联在一起形成数据中心规模的AI训练集,能与MSVP等新硬件设备相辅相成。

Meta的Research Super Cluster(RSC)AI超级计算机,可训练新一代大型AI模型以支持新的AR工具、内容理解系统、实时翻译技术等等,它配备16000个Nvidia A100 Tensor Core GPU(2000个Nvidia DGX A100系统)。从去年开始RSC参与各项研究计划,例如Meta推动的大型语言模型LLaMA(Large Language Model Meta AI)。

除了日前宣布将生成式AI运用在广告工具上,Meta也计划调整编程编写方式,通过内部开发的生成式AI程序编写辅助工具Code Compose,提升开发者的工作效率。

自2016年以来,Google一直在设计和部署称为Tensor Processing Units(TPU)的AI芯片,用于训练生成式AI系统如PaLM-2、Imagen等,亚马逊则向AWS客户提供AWS Trainium、AWS Inferentia两款自研芯片进行应用,微软也传出正与AMD合作开发一种名为Athena的AI芯片。

Meta过去主要使用CPU以及用于加速AI算法而设计的定制芯片来处理AI运算工作,为了扭转局面,Meta开始自行研发客制化芯片,并与同样向AI领域投入大量资源的Google、亚马逊、微软等竞争。

封面图片来源:拍信网

文章来源于:全球半导体观察    原文链接
本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。