仿生学是一种复制自然结构的科学斜线艺术,并不是一个新概念。几十年来,我们一直在尝试复制生物大脑来制造高效的计算机,只是因为我们不知道生物智能究竟是如何工作的这一事实而略有阻碍。凭借我们最好的猜测,我们开发了基于人脑的神经元和尖峰神经网络模型,我们现在正尝试在硅中开发这些模型。硅仿制品通常使用简化版本的神经元,但它们仍然可以为需要快速、节能处理以做出决策的边缘应用提供明显的优势。
深度学习是一项革命性的伟大技术。英特尔(Intel)和英伟达(NVIDIA)等厂商正在积极满足深度学习提出的计算需求,而许多初创公司则在提供改进计算的新方案。他们之中的大部分都采用了“冯·诺依曼”计算架构,但是,一些新兴的计算厂商提出要摆脱当前的()限制。神经形态公司就是倡导新AI模式的先行者之一
神经形态计算基于大脑如何利用神经元、突触和称为“尖峰”的数据格式实际处理信息。尖峰神经元能够比使用浮点值的“感知器”式神经元模型更好地模仿大脑活动,后者是AI行业目前的神经元参考模型。
所有的神经网络都包含对“神经细胞”及其之间加权连接的某种形式的模拟或仿真。在神经形态学方法中,我们有尖峰神经元以及神经细胞之间具有记忆的连接(我们称之为突触)。当输入值的总和超过阈值时,神经元执行突触输入的空间和时间积分,并产生一个或一系列尖峰。
在大脑中,大多数信息都以尖峰或一系列尖峰的形式发送。神经元之间也有直接的电连接。尖峰是表明某一事件发生的短暂能量爆发。当收到尖峰信号时,存储在突触中的值会释放。数字尖峰是某一事件在给定时间触发的值。此事件可以是物理世界中的任何事件,例如,图像中物体边缘的明暗过渡。尖峰包含有关其空间分布、强度和发生时间的信息。
在生物神经元中,突触权重值是一个模拟电位,这些电位的集合导致神经细胞的膜电位增加或减少。生物和数字神经元尖峰始终是二进制的,即有尖峰或者没有尖峰。在Akida的数字神经元仿真中,所有这些电位都被模拟为整数值。不过,时间方面并没有丢失。基于事件的处理是神经效率的重要组成部分,尖峰时间是其学习机制的核心
ABI Research 报告称,2027 年将出货 46 亿个传感器,嵌入到智能家居设备、机器人和电器中,高于 2021 年的 18 亿个。这些额外的传感器将支持现有的和新的功能,从而导致传感器数据激增这将需要处理。虽然到 2027 年绝大多数智能家居设备和电器都将具备互联网连接功能,但云可能不是处理这些数据的最佳场所。在云中托管和处理这些数据会产生一定的成本,速度很慢,而且会涉及隐私问题。
实时处理传感器数据(非常接近传感器)的最佳选择可能是神经形态计算。神经形态计算系统的演示证明了该技术在边缘超快速、超低功耗决策方面的价值。计算和神经形态计算中的仿生学有望为边缘设备带来全新的智能水平,从而使在能耗和速度受到极端限制的设备中增加决策能力成为可能。随着尖峰网络和专用硬件的不断发展,影响将变得更加明显。
Neuromorphic 的竞争对手深度学习(当今大多数主流 的范式)正在快速发展。今天,在一个低于 1 美元的微控制器上进行小型深度学习应用程序很容易,包括关键字定位和基本图像处理。但神经形态概念更进一步,将其压缩到微不足道的能量预算中。这些技术会在边缘竞争还是共存?最有可能的中期情景是共存——边缘有数百万个用例,有数百万个细分市场,出于技术或商业原因,有些可能更适合神经形态计算。
虽然加速计算/特定领域计算在一定程度上规避了摩尔定律的消亡,但它仍然是计算架构的灵活性和性能之间的一个棘手平衡,尤其是对于像这样快速发展的工作负载。从已知最高效的计算机——人脑——中汲取灵感,并以数百万年进化的结果为起点,这感觉像是一个安全的赌注。