人工智能 (AI) 硬件越来越多地从人脑的结构及其运作方式中汲取灵感。这种方法通常被称为神经形态计算,旨在模仿大脑高效且并行的信息处理能力。在这一领域,IBM的NorthPole芯片是一个值得注意的里程碑,它为未来的探索和发展奠定了基础。
根据伦敦大学学院电子电气工程系的A. Mehonic和A.J. Kenyon的表示,类脑计算的未来将是朝着能够处理非结构化数据、执行图像识别、对噪声数据集进行分类以及支持新颖的学习和推理系统的方向发展。与传统计算平台相比,这些神经形态系统可能会显著节省能源。它们并不是为了取代数字计算,而是将补充精确计算,并可能在未来与量子计算相集成。
“神经拟态计算目前开始变得有趣的原因之一是,我们当前的计算机系统在以合理的能量处理数据量方面遇到了障碍。”伦敦大学学院副院长Tony Kenyon告诉《Electronic Specifier》,“大型语言模型花费数百万美元来训练和使用,产生大量二氧化碳,而且它们在处理大脑所处理的信息和数据方面效率不高。”
人工智能硬件革命的基石在于能源效率和小型化。“大脑处理非常复杂的信号,这些信号非常嘈杂,但其效率非常高——比我们最好的计算机高十亿倍,而且有充分的理由解释为什么会出现这种情况。”Kenyon指出,“计算机效率非常低的根本原因之一是它们大部分时间都花在内存和处理单元之间来回移动数据上,移动数据比处理数据需要更多的能量。而大脑则不会这样做,它具有处理和存储信息的结构。”
这种低效的过程通常被称为冯·诺依曼瓶颈,即计算机的中央处理单元与其内存之间的带宽有限,这可能会导致瓶颈——系统中数据流或处理受到限制的点,从而导致性能下降——数据传输和处理速度减慢。
Kenyon进一步强调了大脑处理“不精确、模糊数据”的卓越能力,并指出了神经形态计算通过显著降低功耗需求和提高处理效率来改变人工智能硬件的潜力。对未来类脑人工智能硬件的追求旨在超越当前能源效率的界限。晶体管技术的进步正在引领我们超越传统的12纳米节点,进入量子材料和石墨烯或金刚石等物质领域。这些进步不仅高效,而且正在重塑人工智能硬件的物理景观,推动进一步小型化。
与此同时,模仿大脑密集的神经元和突触网络也成为了一个雄心勃勃的目标。未来的人工智能芯片预计将包含更多互连和并行结构。这种增强是解锁更快、更复杂的计算任务的关键,类似于在人脑中观察到的快速和并行处理。
“当你创造记忆时,你会通过激活越来越多的突触来创造更多的神经连接。结构和功能是密不可分的——但计算系统的情况并非如此。因此,我们从大脑中获取灵感的应用程序可能有各种各样的思考方式。”Kenyon断言。
人脑的一个决定性特征是其卓越的学习和适应能力——这一方面对于人工智能硬件的未来至关重要。预计人工智能芯片中先进形式的可塑性和学习算法的集成将为自适应硬件铺平道路。此类芯片将能够适应新的任务和环境,而无需外部重新编程,这与生物系统固有的适应性相呼应。
在解释技术如何反映大脑处理能力时,Kenyon提到神经形态计算传统上使用晶体管等标准电子元件以新颖的方式模仿大脑功能。忆阻器是一种能够像神经元和突触一样发挥作用的创新装置,通过改变突触强度来支持大脑的局部学习方法。这种学习受到神经元电脉冲时序的影响,而忆阻器能够复制这些动态促进局部规则扩展到全局学习。这种机制类似于量子计算中的量子退火,其中局部相互作用会导致显著的全局效应,从而允许从简单的规则构建复杂的网络,反映大脑适应和处理信息的能力。
同样重要的是人工智能硬件中感知集成的前景。借鉴大脑的经验未来的人工智能系统可以整合和处理来自多种感官的信息。这种方法在增强机器人、自动驾驶汽车和物联网设备的应用方面具有巨大潜力,系统能够以更细致、更复杂的方式与现实世界交互。
“神经拟态计算的概念侧重于增强边缘计算设备的智能性例如手机中的智能传感器和汽车中的微控制器这表明一个新兴行业正蓄势待发。” Kenyon表示,“这种潜力引起了包括国防和安全部门在内的广泛兴趣他们看到了低功耗边缘计算设备对其应用的价值。对话已经扩展到云计算和边缘计算领域突出了广泛的兴趣和应用机会。”
随着技术的进步也带来了道德、法律和社会影响。神经形态计算的发展提出了重要的问题和挑战例如对人工智能意识和权利的伦理担忧以及隐私问题。解决这些问题对于负责任地开发和应用受大脑启发的人工智能硬件至关重要。
这些发展的潜在影响涵盖从医疗保健到自主技术等各个领域而类脑人工智能硬件的未来之旅需要持续的研究、协作和深思熟虑的方法来应对未来的挑战。每一步我们都离解锁神经形态计算的新视野更近了一步这个灵感来源于我们已知的最复杂、最神秘的器官——人脑。