论文部分内容阅读
图是用来表示真实世界数据复杂关系的自然数据结构,近年来,人们对建立基于图的预测模型的兴趣激增,在化学、计算生物学、社交网络等应用领域都有很突出的例子。图空间的极大复杂性,使得为分类任务提取可解释的、有区别的结构特征变得非常困难,并且由于图的连接性和大小在不同的实例之间可能存在很大的差异,因此如何从图结构对象中捕获关键的结构信息仍然是机器学习社区中的一大挑战。传统图核方法在提取图特征时计算量大,而且可扩展性差,同时相似矩阵的计算和之后分类学习是两个独立的步骤,导致图的特征提取是在分类学习之前就要完成的任务,不能通过后续的分类任务来指导特征的选择。近年来,深度学习方法在处理图结构数据上取得了卓越的成就,但是很多深度学习方法只能学习全局图的特征,难以学习局部子图的特征,从而限制了其在分类任务中的性能。针对上述问题与不足,本文提出了一种新的神经网络结构——图注意力模型来提取图的特征,提高了图分类的泛化能力。图注意力模型采用并行的、概率的决策过程来组装子图结构,根据中心节点与其邻域的节点的注意力系数的大小来决定是否选择邻域的节点,使得注意力层能够探索高度复杂的图空间,因此图注意力模型可以以更细的粒度调整子图特征;此外,图注意力模型以图的类标签为指导,通过反向传播进行监督学习,不断改进模型中的参数,从而优化子图结构的组装过程。本文工作的关键创新是采用了注意力机制的注意力层,通过分层地组装贡献值高的子图结构,从而最终制造出有区别力的子图,后续的池化层和全连接层根据有区别力的子图对输入图进行分类。将图注意力模型与流行的几种图核方法与深度学习方法在数据集上进行比较,实验结果表明图注意力模型在整体的性能表现排在第一位。总体而言,图注意力机制在所有边上的计算以及输出的特征向量的计算在所有节点上都是并行的,因此图注意力模型的计算很高效,并且图注意力模型既具有组合模式搜索的灵活性,又具有较强的深度学习优化能力,并且在使用最先进的技术进行图分类任务时,可以提供有区别力和可解释的结构特征。