MIT新研发的芯片将神经网络功耗降低95%

2018年03月01日 由 yining 发表 767943 0
近日,麻省理工学院(MIT)的工程师们设计了一种芯片,这种芯片能将神经网络计算的速度提高3到7倍,同时还能将耗电量降低94-95%。这大大减少了在芯片存储器和处理器之间来回传输数据的需要,这可能使得我们可以在智能手机上运行神经网络,甚至也可将其嵌入到家用电器中。

MIT新研发的芯片将神经网络功耗降低95%

“通用处理器模型在部分芯片中是一个内存,并且在芯片的另一部分是一个处理器。当你做这些计算时,你需要在它们中间反复地移动数据。”麻省理工学院的电气工程和计算机科学研究生Avishek Biswas说道。他还补充“由于这些机器学习算法需要大量的计算,所以数据的反复传输是能量消耗的主要部分。但是这些算法的计算可以简化为一个特定的运算,叫做点积。我们的方法是,我们能否在内存中实现这个点积功能,这样是不是你就不需要来回传输这些数据了?”

神经网络由成千上万个相互连接的人工神经元组成。每一个神经元都接收来自其下方的多个神经元的输入,如果组合的输入传递一个特定的阈值,那么它就会将输出信号传送到上面的多个神经元上。神经元之间的连接强度是由一个权重决定的,而权重是在训练过程中设定的。

这意味着,对于每个神经元,芯片都必须检索特定连接的输入数据,并从内存中获取连接权重,将它们相乘,存储结果,然后为每个输入重复这个过程。这个过程需要大量的数据来移动,并且会消耗大量的能量。

麻省理工学院的这种芯片可以消除这种情况,取而代之的是用模拟电路在内存中并行计算所有的输入。这大大减少了需要被推挤的数据量,从而节省了大量的能源。

这种方法需要二进制权重的连接,而不是一个值的范围,但先前的理论工作认为这种方法不会显著地影响精度,并且研究人员发现芯片的结果一般在2%到3%的传统非二进制神经网络标准内的计算机上运行。

这并不是研究人员第一次在内存中创建芯片来减少神经网络的功耗,但这是第一次使用这种方法来运行基于图像的人工智能应用程序的强大的卷积神经网络。

IBM的人工智能副总裁Dario Gil在一份声明中说:“这一结果显示了令人印象深刻的技术,用于与内存阵列的卷积运算。这肯定会为未来的物联网中的图像与视频分类提供更复杂的卷积神经网络。”

然而,不仅仅是麻省理工学院的研究小组在研究这个问题。在智能手机、家用电器以及各种物联网设备等设备上,人们渴望将人工智能技术应用到智能手机上。

MIT新研发的芯片将神经网络功耗降低95%

骁龙845


苹果已经将其神经系统集成到iPhone X中,以支持其面部识别技术等功能。据传闻,亚马逊正在开发自己的定制人工智能芯片,用于下一代Echo数字助手。

大型芯片公司也越来越倾向于支持先进的设备,比如机器学习,这迫使他们让设备变得更加节能。今年早些时候,ARM发布了两款新芯片:ARM Machine Learning处理器,目标是将人工智能任务从翻译转换到面部识别,以及用于检测图像中人脸的ARM Object Detection处理器。

高通最新的移动芯片骁龙845,采用一个GPU并将其重点集中于人工智能。该公司还发布了骁龙820E芯片,主要针对无人机、机器人和工业设备。

更进一步,IBM和英特尔正在开发一种神经形态芯片,其架构受到人类大脑及其能源效率的启发。从理论上讲,这可以让IBM的TrueNorth和英特尔的Loihi运行强大的机器学习,而这只是传统芯片的一小部分,尽管他们在这一阶段仍处于高度的实验阶段。

要让这些芯片运行像云服务中发现的那样强大的神经网络而不会过快地消耗电池,这将是一个巨大的挑战。
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消