MIT开发出“跨越性”专用芯片,功耗降低 95%,手机也能运行神经

MIT开发出“跨越性”专用芯片,功耗降低 95%,手机也能运行神经
长按识别二维码,报名2018十大突破技术全球直播首发,原定大年初一的直播解读改期为2月21日16:00(大年初六)。



近期,麻省理工学院的研究人员开发了一种专用芯片,将神经网络计算的速度提高了 3 倍至 7 倍,同时将功耗降低了 95%。这将会使在智能手机上运行神经网络变得切实可行。

 

MIT开发出“跨越性”专用芯片,功耗降低 95%,手机也能运行神经



不管是语音识别还是面部识别,目前大多数人工智能系统的进步背后都来自于神经网络的功劳。人工神经网络,也就是通过大量简易“神经元”(信息处理器)连接而成的系统,能够通过分析大量训练数据学习如何完成不同的任务。

 

正是因为这样的结构,神经网络占用空间大,其计算过程中的耗能也相应非常大。因此,目前的神经网络很少能够被便携设备使用。目前所有使用神经网络的智能手机软件只能向网络服务器发送数据,通过接收服务器返回的数据完成计算。

 

不过,麻省理工学院(MIT)的研究人员开发了一种能够将神经网络计算速度提升 3-7 倍的专用芯片。除了提升计算性能,这类芯片还能够减少计算时 94-95% 的能耗。这种芯片使智能手机运用神经网络进行计算成为了可能,甚至能够扩展到在各式智能家居中的应用。

 

负责芯片开发的 Avishek Biswas 是这样解释的:“目前大部分的处理器芯片都有这样的模型:芯片的一部分是内存,另一部分是处理器。在计算的同时,数据相当于是在这两部分之间来回移位。”Biswas 是 MIT 电气工程和计算机学的一名研究生。

 

“由于这类机器学习算法需要非常多的计算量,数据的移位消耗了总能量中的绝大部分;但是算法中的计算本身其实能够被简化为‘

点乘

’这一种运算。我们因此产生了这种想法:能不能将这种

点乘

运算直接在内存中执行,从而不需要将数据来回移动呢?”

 

Biswas 和他的指导教授,MIT 工程学院院长、Vannevar Bush 荣誉教授 Anantha Chandrakasan 在他们最新发表的论文中详细地描述了这种新型芯片。Biswas 在上周的国际固态电路会议(International Solid State Circuits Conference)中介绍了这篇论文。

 

重回抽象

 

人工神经网络一般被分成很多层,某一层中的一个处理器节点会从数个下层节点中获得数据,在计算后又将结果传送给上层中的数个节点。任意两个节点的连接都拥有不同的权重(weight),标志着下层节点传送的数据对于上层节点的计算有多大的影响。“训练”神经网络的过程其实就是调试并改进这些权重数据。

 

当某个节点获得下层节点传送的数据后,它会将每个数据乘以它的权重,然后将这些结果相加。这一运算过程——将相乘后的所有结果相加——就叫作“点乘”。

如果点乘的结果超过了某个定值,这一结果将被传送给更上层的节点。上层节点也将会这一结果乘以连接权重,然后再和别的数据相加。

 

“神经网络”本身其实是对这一算法的一种“抽象化”:在计算机中,“节点”其实只是内存中的一系列权重数据。计算点乘的过程一般是从内存中读取一个权重和相关的计算数据,将这两个数据相乘并将结果存在内存的某个位置,然后重复这一过程,直到这一个节点的所有数据都被计算完毕。由于一个神经网络可能有上万(甚至上百万)的节点,在计算过程中其实要进行非常多的数据移动。

 

人工神经网络的计算过程其实是对大脑活动的一种电子化诠释。在大脑中,信号沿着多个神经元行进,在“突触”或者一束神经元之间的间隙中相遇。神经元的放电速率和穿过突触的电化学信号对应着人工神经网络中的数据值和权重。这样说来,MIT 研究人员此次研发的新型芯片通过对大脑活动的进一步复制、模仿,从而提升了人工神经网络的效率。

 

在这种新型芯片中,一个节点的输入数据被转化为不同的电压,并且这些电压将乘以权重大小进行放大或缩小。将相乘后的结果相加的过程能够通过组合这些电压得到实现。只有组合后的电压会被重新转换成数据,并在内存中进行存储,以进行下一步计算。

 

因此,这种芯片原型不需要将数据在处理器和内存中移动——它能同时计算 16 个节点的点乘结果。

 

 不是“开”就是“关”

 

这个系统的一大特点是权重数值不是 1 就是-1。这就意味着它们能被实现为内存中的“电路开关”,也就是“关闭电路”与“打开电路”的区别。最新的理论研究表明,仅有两个权重值的人工神经网络与其它神经网络相比,其准确性仅会下降 1%-2%。

 

Biswas 与 Chandrakasan 教授的研究与这一理论结果相差不远。在实验中,他们在传统计算机中运行了一个全面的神经网络,同时在他们研发的芯片上运行了二元权重的神经网络。芯片提供的计算结果与计算机提供的结果一般仅相差 2%-3%。

 

“这项研究是针对深度学习应用中基于静态存储器(SRAM)内存模拟计算的一次非常有前景的实际演示。”

IBM 人工智能研究院副总裁 Dario Gil 是这样评价的,“这项研究的结果对于在存储阵列中实现卷积网络提供了一种节能的实现方案。它一定能够为将来在物联网(Internet of Things, IoT)中采用更复杂的卷积神经网络进行图像和视频分类开辟可能性。”

 

-End-



MIT开发出“跨越性”专用芯片,功耗降低 95%,手机也能运行神经
MIT开发出“跨越性”专用芯片,功耗降低 95%,手机也能运行神经