爱芯元智宣布,企业核心技术混合精度NPU正式启用中文名称“爱芯通元®”。与此同时,爱芯元智联合创始人、副总裁刘建伟在第三届中国集成电路设计创新大会暨无锡IC应用博览会(ICDIA 2023)的“AIoT与ChatGPT”专题论坛上,受邀做《爱芯元智AX650N Transformer端边落地平台》主题演讲,并介绍了第三代SoC芯片AX650N在端侧、边缘侧部署Transformer的领先优势。
爱芯元智混合精度NPU中文名“爱芯通元®”正式公布
近年来,AIoT行业规模快速成长,不仅是各大传统行业智能化升级的最佳通道,也是未来物联网发展的重要方向。同时,自2022年底发布以来,以ChatGPT为代表的大模型引发国内外科技巨头的纷纷布局,人工智能发展也进入了一个全新的时代。可以看到,伴随着AIoT以及AI大模型的快速发展,底层硬件的数据存储、计算性能、图形处理能力都面临着极高的要求。
在爱芯元智看来,大模型具有通识能力,能够降低人工智能在场景落地的成本,而未来,每一个人都可能在终端拥有一个智能助手。在人工智能发展的过程中,爱芯元智提供的则是芯片基建,即通过人工智能芯片提供感知与计算的基础能力,助力AI在端侧边缘侧的落地。
感知层面,爱芯元智致力于让摄像头看得更清,从而打造物理世界的数字化入口;计算层面,爱芯元智致力于让摄像头看得懂,将为各种AI模型在端侧和边缘侧的落地提供更高的算力基础。本次ICDIA 2023现场,爱芯元智正式公布了混合精度NPU的官方中文名“爱芯通元®”,意在为各种智能算法提供基本算力支撑,让智能在端侧和边缘侧对世界产生更深入的理解,助力更美好的生活。
定位人工智能感知与边缘计算基础算力平台,爱芯元智自2019年成立以来便聚焦感知与计算基础能力,自主研发了爱芯智眸®AI-ISP和爱芯通元®混合精度NPU两大核心技术。后者通过减少内存墙和功耗墙的阻碍,在端侧边缘侧面积、功耗受限的情况下,以更高的有效算力支持更多的智能算法,降低AI部署成本。
目前,爱芯元智已完成四代多颗芯片产品的研发和量产工作,并逐渐落地智慧城市、智能驾驶和AIoT三大市场。“这些市场都将感知和计算作为基本能力,这也是爱芯元智选择不同市场的逻辑”,刘建伟表示。
高性能、高精度、易部署,爱芯元智AX650N成Transformer最佳落地平台活
在AI芯片设计开发时,爱芯元智高度重视应用、算法与NPU的深度结合。应用方面,爱芯元智通过数据流优化、前后级处理加速来实现更高的性能;算法方面,爱芯元智会通过算子加速、网络微结构加速、内存优化等设计,从算法的角度来提高硬件的利用率;同时,爱芯通元®混合精度NPU是一个异构多核系统,并且内置多核硬件调度机制减少对CPU的占用,让系统应用跑得更快。
基于应用、算法与NPU联合优化的设计理念,爱芯元智推出的边缘侧、端侧人工智能处理器芯片均具有高性能、低功耗等优势,其第三代高算力、高能效比SoC芯片AX650N更成为Transformer最佳落地平台。
实测数据显示,爱芯元智AX650N不仅在传统的CNN网络上性能优异,在端侧部署Transformer网络SwinT也表现出色,实现了361FPS的高性能、80.45%的高精度、199 FPS/W的低功耗以及原版模型且PTQ量化的极易部署能力。同时,AX650N还支持低比特混合精度,用户如果采用INT4,可以极大地减少内存和带宽占用率,从而有效控制端侧边缘侧部署的成本。
目前,爱芯元智AX650N已适配ViT/DeiT、Swin/SwinV2、DETR等Transformer模型,最先进的计算机视觉自监督模型DINOv2也在AX650N上达到了30帧以上的运行结果。为了帮助开发者对Transformer做更好的落地尝试,爱芯元智还推出了基于AX650N的面向生态社区和行业应用的开发套件“爱芯派Pro”,助力探索更丰富的产品应用。
面对大模型掀起的新一轮AI热潮,爱芯元智AX650N也将针对Transformer结构进行进一步优化,并且将探索多模态方向的Transformer模型。爱芯元智希望通过感知和计算核心技术,加速端侧边缘侧智能落地,真正实现普惠AI,让人们的生活更加美好。
关于爱芯元智:
爱芯元智成立于2019年5月,致力于打造世界领先的人工智能感知与边缘计算芯片,服务智慧城市、智能驾驶、机器人以及AR/VR等巨大的边缘和端侧设备市场。集强大算力与超低功耗于一体,采用算法和芯片的协同设计理念,爱芯元智自研两大核心技术——爱芯智眸® AI-ISP和爱芯通元®混合精度NPU。在过去的四年时间里,爱芯元智已经完成了四代多颗芯片产品的研发和量产工作。
基于算法、芯片、产品的垂直整合,爱芯元智为合作伙伴提供全栈式解决方案,帮助客户实现最新技术的快速落地。与此同时,爱芯制定了完善的产品路线图,覆盖高中低端市场,以满足客户不同场景的产品需求。