Inductive Representation Learning on Large Graphs
NIPS 2017。提出的方法叫 GraphSAGE,针对的问题是之前的 NRL 是 transductive,不能泛化到新结点上,而作者提出的 GraphSAGE 是 inductive。主要考虑了如何聚合顶点的邻居信息,对顶点或图进行分类。原文链接:Inductive Representation Learning on Large Graphs
NIPS 2017。提出的方法叫 GraphSAGE,针对的问题是之前的 NRL 是 transductive,不能泛化到新结点上,而作者提出的 GraphSAGE 是 inductive。主要考虑了如何聚合顶点的邻居信息,对顶点或图进行分类。原文链接:Inductive Representation Learning on Large Graphs
NIPS 2016。DCNNs,写的云里雾里的,不是很懂在干什么。。。就知道是融入了转移概率矩阵,和顶点的特征矩阵相乘,算出每个顶点到其他所有顶点的 $j$ 步转移的特征与转移概率的乘积,成为新的顶点表示,称为diffusion-convolutional representation,然后乘以一个卷积核,套一个激活,卷积就定义好了。应用还是在顶点分类与图分类上。原文链接:Diffusion-Convolutional Neural Networks。
重新定义了卷积的定义,利用$k$阶邻接矩阵,定义考虑$k$阶邻居的卷积,利用邻接矩阵和特征矩阵构建能同时考虑顶点特征和图结构信息的卷积核。在预测顶点、预测图、生成图三个任务上验证了模型的效果。原文链接:Graph Convolution: A High-Order and Adaptive Approach
ICLR 2018。图注意力网络,使用 self-attention 来构建 graph attentional layer,attention 会考虑当前顶点所有的邻居对它的重要性,基于谱图理论的模型不能应用到其他不同结构的图上,而这个基于attention的方法能有效的解决这个问题。原文链接:Graph Attention Networks
ICLR 2017。图卷积中谱图领域理论上很重要的一篇论文,提升了图卷积的性能,使用切比雪夫多项式的1阶近似完成了高效的图卷积架构。原文链接:Semi-Supervised Classification with Graph Convolutional Networks. Kipf & Welling 2017
KDD 2018。使用图卷积对顶点进行表示,学习顶点的 embedding ,通过卷积将该顶点的邻居信息融入到向量中。原文链接:Graph Convolutional Neural Networks for Web-Scale Recommender Systems。
IJCAI 2018,大体思路:使用Kipf & Welling 2017的近似谱图卷积得到的图卷积作为空间上的卷积操作,时间上使用一维卷积对所有顶点进行卷积,两者交替进行,组成了时空卷积块,在加州PeMS和北京市的两个数据集上做了验证。但是图的构建方法并不是基于实际路网,而是通过数学方法构建了一个基于距离关系的网络。原文链接:Spatio-Temporal Graph Convolutional Networks: A Deep Learning Framework for Traffic Forecasting