日前,Tenstorrent首席架构师练维汉在芯原主办的,《2024世界人工智能大会》——“智由芯生”RISC-V和生成式AI论坛上,以Tenstorrent公司为例,分享了了RISC-V架构与AI创新的结合,其表示开源尤其是RISC-V在推动AI算力发展中扮演着关键作用。
Tenstorrent 由传奇 CPU 架构师Jim Keller担任 CEO。其已于今年 2 月同 LSTC 签署多层次 AI 开发合作协议,共同打造 2nm AI 加速器芯片。LSTC是“技术研究组合,最先进半导体技术中心”的简称,它是一个日本的半官方机构,由先进代工企业 Rapidus 牵头于 2022 年成立。LSTC 的成员包括理化学研究所、产业技术综合研究所和多座日本高校。LSTC 的目标是推动人工智能芯片的设计和制造。
AI时代的算力挑战
在AI技术飞速发展的今天,算力成为了支撑这一变革的核心力量。练维汉指出,尽管AI的算法和应用已经取得了巨大进步,但算力的问题仍然是制约其进一步发展的关键瓶颈。只有解决了算力问题,AI的潜力才能得到充分释放。陈维汉表示:“AI对算力的需求几乎是“前无古人、后无来者”的,Tenstorrent也坚定的认为:算力的需求是必须要到在每一个地方都要发生。”
算力要根据成本、功耗以及硬件需求等而确定,Tenstorrent关注的是数据中心和云端的算力需求,为芯片厂商提供合适的Chiplet。
另外,Tenstorrent也开发芯片、软件等更多AI相关产品,目前包括三星、LG、LSTC等公司都与其合作。
Tenstorrent的关键是其处理器核心Tensix Cores。每个 Tensix Core 包含五个 RISC-V 处理器、一个用于张量运算的数组数学单元、一个用于矢量运算的 SIMD 单元、用于加速网络数据包操作和压缩/解压缩的硬件以及高达 1.5 MB 的 SRAM。
开源架构的崛起
RISC-V作为一种开源的指令集架构,因其灵活性和可扩展性,在AI算力的发展中扮演了重要角色。陈维汉表示,RISC-V具有更好的延展性,可以用一个指令集支持从边缘到云端的一切AI需求,不像Arm有不同的指令集;另外,RISC-V的可扩展性使其可以根据应用需求扩展;在效率方面,由于不需要兼容过去的应用,因此实现了效率最大化,另外则是稳定性上,经过多年的发展,以及产业链的合作,RISC-V已经被证明是可以商业化的指令集。
AI需要更加灵活的处理方式
陈维汉特别强调,AI处理的速度有很多瓶颈,有时候需要等数据来,有时候有需要爆发式的数据处理,同时也要注意功耗,也正因此RISC-V的可裁剪性,使其可以刚刚好的弹性,来执行AI算力。
另外,他也表示高性能CPU在AI中非常有潜力,并不是所有AI都适合矩阵运算,适合GPU训练,实际上有些应用可以回到高性能CPU上来计算,而Chiplet非常适合将高性能的CPU和AI相结合。
一切才刚刚开始
正因为RISC-V有非常强的可延展性、可扩充性和高效率,以及多元化的IP供应商,陈维汉非常看好RISC-V在AI领域的发展。他总结道:“现在只是刚刚开始,RISC-V作为一个开源项目,拥有无限的想象空间和发展潜力。”