人工智能迭代不止,类脑计算了解一下?

2019年12月20日 由 TGS 发表 580162 0
深度学习正遍地开花,但它可能并非人工智能的终极方案。无论是学术界还是产业界,都在思考人工智能的下一步发展路径:类脑计算已悄然成为备受关注的“种子选手”之一。

近日,北京未来芯片技术高精尖创新中心及清华大学微电子学研究所联合主办的“北京高精尖论坛暨2019未来芯片论坛”在清华大学举行,这次论坛上,类脑计算成为多位权威专家热议的人工智能研究方向。类脑芯片是人工智能芯片中的一种架构。它模拟人脑进行设计,相比于传统芯片,在功耗和学习能力上具有更大优势。

何谓类脑计算?


类脑计算又被称为神经形态计算(Neuromorphic Computing)。它不仅是学术会议关注的新热点,产业界也在探索之中。类脑芯片的研究就是基于微电子技术和新型神经形态器件的结合,希望突破传统计算架构,实现存储与计算的深度融合,大幅提升计算性能、提高集成度、降低能耗。借鉴大脑中进行信息处理的基本规律,在硬件实现与软件算法等多个层面,对于现有的计算体系与系统做出本质的变革,从而实现在计算能耗、计算能力与计算效率等诸多方面的大幅改进。

如果说,当下人工智能发展浪潮正波涛汹涌的话,类脑计算就是浪潮之下的洋流。虽不太引人注意,未来却有可能改变人工智能发展趋势。原因之一是,深度学习虽在语音识别、图像识别、自然语言理解等领域取得很大突破,并被广泛应用,但它需要大量的算力支撑,功耗也很高。北京大学计算机科学技术系教授举了一个生动的例子:市场上应用深度学习技术的智能无人机已经十分灵巧,但从智能程度上看,却与一只苍蝇或蜻蜓相差甚远,尽管体积和功耗比后者高很多。

类脑计算试图模拟生物神经网络的结构和信息加工过程。它在软件层面的尝试之一是脉冲神经网络。现在深度学习一般通过卷积神经网络(CNN)或递归神经网络(RNN)来实现。CNN和RNN都属于人工神经网络,但其中的人工神经元,至今仍在使用上世纪40年代时的模型。黄铁军说,虽然现在设计出的人工神经网络越来越大,也越来越复杂,但从根本上讲,其神经元模型没有太大改进。

另一方面,在深度学习人工神经网络中,神经元之间的连接被称为权值。它们是人工神经网络的关键要素。而在脉冲神经网络中,神经元之间却是神经脉冲,信息的表达和处理通过神经脉冲发送来实现。就像我们的大脑中,有大量神经脉冲在传递和流转。

应用前景


类脑智能有着很好的应用前景,国内很多优秀企业在类脑芯片的研发、量产以及AI架构等方面都有不错的成果。信息通信技术革命经历了由电学、数字,到网络再到智能的过程,如今的计算机越来越小,摩尔定理即将终结,物理限制效应越来越明确。

有人从硬件层面去实现类脑计算,比如:神经形态芯片。

2019年7月,英特尔发布消息称,其神经形态研究芯片Loihi执行专用任务的速度可比普通CPU快1000倍,效率高10000倍。在传统的冯·诺依曼架构中,信息的处理和存储是分开的,而人的大脑在处理信息时,存储和处理是融为一体的。所以,存算一体化的芯片就成了避免芯片内部不停地搬运数据的根本,可以提高芯片的能效比。

目前类脑计算仍在摸索阶段,还缺乏典型的成功应用。但商业公司已经嗅到味道,相关技术获得规模性应用可能不需要太长时间。现在的神经形态计算还比较初步,它的发展水平跟现有主流人工智能算法相比,还存在一定差距,主要挑战是缺少人才。

从算法、计算框架,到整个芯片的实现,我国人才都十分匮乏,需要全面、大力培养人才来支持AI产业。从深度学习的角度来说,我们起步比国外晚很多,从平台角度来说,都有自己的平台,几乎能够统治深度学习的江山,然而在类脑智领域里面,还没有出现一家独大的情况,像新氦类脑智能,国内的类脑中心复旦大学,以及清华大学等高校和机构,已是中国类脑智能的领头羊。

现阶段人们需要更高效的神经网络硬件,以促进类脑芯片制造。斯德哥尔摩大学教授Anders Lansner表示,脑科学能够帮助我们实现这一目标,如何充分真正了解人类大脑的运作机制,则需要结合神经科学以及认知心理学这两个学科,对于未来新一代的人工智能而言,我们需要深入的了解这些学科本身的内容以及背后的概念。
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消