Popular science work
一个国际研究团队设计并制造了一种直接在内存中运行计算的芯片,可运行各种人工智能(AI)应用,而且它能在保持高精度的同时,仅消耗通用AI计算平台所耗能量的一小部分,兼具高效率和通用性。相关研究发表在最近的《自然》杂志上。
这款名为NeuRRAM的神经形态芯片使AI离在与云断开的广泛边缘设备上运行又近了一步。在云中,AI计算可随时随地执行复杂的认知任务,而不需要依赖与中央服务器的网络连接。从智能手表到虚拟现实(VR)耳机、智能耳机、工厂中的智能传感器和用于太空探索的漫游车,其应用比比皆是,遍及世界的每一个角落和人类生活的方方面面。
NeuRRAM芯片的能效不仅是目前最先进的“内存计算”芯片(一种在内存中运行计算的创新混合芯片)的两倍,而且它提供的结果也与传统数字芯片一样准确。传统的AI平台要庞大得多,通常受限于使用在云中运行的大型数据服务器。
此外,NeuRRAM芯片具有高度的通用性,支持多种不同的神经网络模型和架构。因此,该芯片可用于许多不同的应用,包括图像识别和重建以及语音识别。
目前,AI计算既耗电又昂贵。边缘设备上的大多数AI应用程序都涉及将数据从设备移动到云端,AI在云端对其进行处理和分析,然后将结果移回设备。
通过降低边缘AI计算所需的功耗,这款NeuRRAM芯片可带来更强大、更智能、更易于访问的边缘设备和更智能的制造。它还可带来更好的数据隐私,因为将数据从设备传输到云会带来更高的安全风险。
研究人员通过一种名为能量延迟乘积(EDP)的方法来测量芯片的能效。EDP结合了每次操作所消耗的能量和完成操作所需的时间。通过这一措施,NeuRRAM芯片实现了比目前最先进芯片高7—13倍的计算密度。
研究人员在芯片上运行各种人工智能任务。它在手写数字识别任务上准确率达到99%,在图像分类任务上达到85.7%,在谷歌语音命令识别任务上达到84.7%。此外,该芯片还在图像恢复任务中减少了70%的图像重建误差。这些结果可以与现有的数字芯片相媲美,后者在相同的精度下执行计算,但大大节省了能源。
【总编辑圈点】
与经典计算相比,AI计算的许多数据处理都涉及矩阵乘法和加法,以及海量的并行工作,如何在保持AI芯片精度的前提下还做到节能呢?最终该用什么路线去实现,其实依然众说纷纭。但这也正是一项新技术的特点与魅力——在探索阶段百花齐放。就像本文中团队实现的神经形态芯片,其最大的吸引人之处,正是它兼具了高能效与通用性。
来源:科技日报