神经形态AI,未来人工智能的下一步
2019年10月18日 由 KING 发表
405592
0
当苹果CEO蒂姆·库克(Tim Cook)推出iPhone X时,他声称他将为下一个十年的技术铺平道路。尽管现在还为时过早,但用于面部识别的神经引擎的出现已经证明了一些问题。如今,深度神经网络已成为现实,而神经形态学似乎是在AI方面不断取得进步的唯一可行途径。
YoleDéveloppement在最近发表的一份报告称,面对数据带宽限制和不断增长的计算要求,传感和计算必须通过模仿神经生物学架构来重塑自身。
Yole成像分析师Pierre Cambou 在接受采访时说:“神经形态传感和计算可以解决当前AI的大部分问题,同时在未来几十年中打开新的应用前景。神经形态工程学是仿生技术的下一步,并会推动AI的发展。” 自数学家艾伦·图灵(Alan Turing)提出“机器能思考吗?”这个问题以来已经过去了70年。自加利福尼亚理工学院的电气工程师卡弗·米德(Carver Mead)提出神经形态工程学概念已经过去了30年。然而,在接下来的十年中,研究人员在构建具有大脑般学习能力和适应能力的机器方面几乎没有实际成功。
转折点是由多伦多大学的一组科学家发表的论文《具有深度卷积神经网络的ImageNet分类》。AlexNet体系结构由8层卷积神经网络组成,可以将ImageNet竞赛中的120万张高分辨率图像分类为1,000种类别(例如猫,狗)中的一种。只有随着AlexNet的发展,深度学习方法才被证明功能更强大,并开始在AI领域获得发展动力。当前大多数深度学习实现技术都依赖于摩尔定律,并且效果很好。但是随着深度学习的发展,对执行高性能计算任务的芯片的需求将越来越大。摩尔定律最近一直在放缓,并已导致包括YoleDéveloppement在内的许多业内人士认为,摩尔定律将无法维持深度学习的进展。Cambou认为,如果继续按照今天的方式实施,深度学习最终将失败。
为了解释他的观点,坎布列举了三个主要障碍。首先是摩尔定律的经济学。很少有企业能够参与竞争。他认为,只有Google才能做某事,这对创新是有害的。其次,数据负载的增长速度快于摩尔定律,数据溢出使当前的存储技术成为限制因素。第三,计算能力要求的指数级增长为每种应用创建了热墙。例如使用7nm芯片,我们每瓦的效率大约为1 teraflop(每秒1万亿次浮点运算)。为电动汽车供电时,我们可能需要一千瓦,这意味着我们需要一千亿兆兆字节。 当前的技术无法实现,解决方案可能是在神经形态硬件上应用深度学习并提高能源的利用效率。 Cambou说:“从更广泛的角度看,未来的做法将是一种破坏性方法,该方法应利用新兴内存技术带来的好处并提高数据带宽和能源效率。那是神经形态的方法。人工智能的故事将继续向前发展,我们相信下一步是朝着神经形态的方向发展。”
近年来,许多人在构建通过硅中实现神经元来传达认知能力的神经形态硬件方面做出了努力。对于Cambou而言,这是可行的方法,并提高了效率。我们相信它将使神经形态AI迈出下一步。然后,我们可以重新认识AI。