聚焦AI产业变革,图神经网络或将是下一个拐点
2020年01月17日 由 TGS 发表
257503
0
图神经网络(GNN)是 AI 领域最为火爆的研究热点之一,学术界与工业界各大公司纷纷投入大量资源研究。它在因果推理上拥有巨大潜力,有望解决深度学习无法处理的关系推理、可解释性等一系列问题,而这些问题被业界认为是能够推动 AI 出现实质性进展的关键。
近年来,图神经网络技术得到了学术界极大的关注与响应。各大学术会议纷纷推出 GNN 相关的 workshop,在投中的论文中,以 Graph Network 为关键词的论文数量也呈现井喷之势。
简单了解图神经网络
在讨论GNN之前,我们先来了解一下什么是图。在计算机科学中,图是由顶点和边两部分组成的一种数据结构。根据顶点之间是否存在方向依赖关系,边可以是有向的,也可以是无向的。
图是一种数据结构,它对一组对象(节点)及其关系(边)进行建模。近年来,由于图结构的强大表现力,用机器学习方法分析图的研究越来越受到重视。GNN是一类基于深度学习的处理图域信息的方法。由于其较好的性能和可解释性,GNN 最近已成为一种广泛应用的图分析方法。GNN 的第一个动机源于卷积神经网络(CNN)。CNN 的广泛应用带来了机器学习领域的突破并开启了深度学习的新时代。然而 CNN 只能在规则的 Euclidean 数据上运行,如图像(2 维网格)和文本(1 维序列)。如何将 CNN 应用于图结构这一非欧几里德空间,成为 GNN 模型重点解决的问题。
GNN 的另一个动机来自图嵌入,它学习图中节点、边或子图的低维向量空间表示。DeepWalk、LINE、SDNE 等方法在网络表示学习领域取得了很大的成功。然而,这些方法在计算上较为复杂并且在大规模上的图上并不是最优的,GNN 旨在解决这些问题。
图网络是一个将网络科学于深度学习相结合的领域,近年来,大量优秀的使用图网络技术对复杂系统进行建模的工作层出不穷,例如图卷机网络,图注意力网络,应用于大规模数据的GraphSAGE算法等。
不过,这些代表性的工作所关注的均是复杂网络中的正向问题,即在已知网络结构的情况下完成节点分类,图分类等任务。相比于上述任务而言,网络重构则更像是一个“逆问题”,即通过对系统的观察来推测出系统内部的网络结构并学习到系统的动力学规则。
总的来说,图神经网络强大的计算能力,对图结构数据的友好处理,深受研究者们的喜爱,但其仍存在很多需要解决的问题。
热点拐点
GNN 在经历过 2017-2018 年两年的孕育期与尝试期之后,在 2018 年末至今的一年多时间里,迎来了快速爆发期。从理论研究到应用实践,可谓是遍地开花,让人应接不暇。
在理论研究上,GNN 的原理解释、变体模型以及对各种图数据的拓展适配等工作成为了主流。而在应用实践上,GNN 更是展现出了前所未有的渗透性,从视觉推理到开放性的阅读理解问题,从药物分子的研发到 5G 芯片的设计,从交通流量预测到 3D 点云数据的学习,可以明显看到 GNN 极其广阔的应用前景。
GNN 作为一个新兴的技术方向,其原理解读以及各类变体与拓展构成了理论研究的热点,这些论文很好地回答了 GNN 的优缺点以及相关的适应性改造问题。当前 GNN 研究的第一个热点在于其相关能力的理论化研究。在 《How Powerful are Graph Neural Networks?》和 《On the equivalence between graph isomorphism testing and function approximation with GNNs》 中,都对 GNN 在图同构问题上的表现进行了探讨。即,图同构问题是辨别给定的两个图是否一致?
GNN 模型的相关变体研究是领域内的另一个热点,这些变体在一些方面提升了 GNN 的能力表现。我们知道 GCN 模型来源于图信号上的傅里叶变换,“Graph Wavelet Neural Network” 引入了图信号上的小波变换来改造 GCN 模型,将卷积计算变换到空域局部邻域内。
将数据表征从欧式空间转化到双曲空间,不仅能获得更好地层次化表示,同时能大大节约空间维度,“Hyperbolic Graph Convolutional Neural Networks”和“Hyperbolic Attention Networks” 同时将 GNN 拓展到了双曲空间上去。在“MixHop: Higher-Order Graph Convolutional Architectures via Sparsified Neighborhood Mixing”和“Diffusion Improves Graph Learning”中,同时将原始 GCN 中的邻居定义由一阶拓展到高阶,强化了模型低通滤波的特性,是传统网络所无法企及的。