Deeper Insights into Graph Convolutional Networks for Semi-Supervised Learning

AAAI 2018。这篇论文很有趣,讲的是 GCN 堆得过多了之后,效果会变差的问题。作者分析了一下为什么会变差,主要是因为 GCN 的本质实际上是对每个结点的邻居特征和自身特征做线性组合,权重和邻接矩阵相关,所以对于顶点分类问题来说,如果堆得层数多了,就会让一个结点的特征聚合越来越多邻居的特征,让大家都变得相似,从而使得类间的相似度增大,自然分类效果就差了。作者提出了两个方法解决这个问题,算训练上的 trick 吧。原文链接:[Deeper Insights into Graph Convolutional Networks for Semi-Supervised Learning](https://arxiv.org/abs/1801.07606)

Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting

NIPS 2015. 将 FC-LSTM 中的全连接换成了卷积,也就是将普通的权重与矩阵相乘,换成了卷积核对输入和隐藏状态的卷积,为了能捕获空间信息,将输入变成了4维的矩阵,后两维表示空间信息。两个数据集:Moving-MNIST 和 雷达云图数据集。原文链接:[Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting](https://arxiv.org/abs/1506.04214)

Large-Scale Learnable Graph Convolutional Networks

KDD 2018.将图结构数据变换到网格状数据中,使用传统的一维卷积进行卷积。变换的方式是:针对每个特征的大小,对邻居结点进行排序,取这个特征前k大的数作为它邻居这列特征的k个值。如果邻居不够,那就用0来补。这样就能得到该顶点的邻居信息,组成一个矩阵,然后使用一维卷积。但是作者没说为什么非要取最大的k个数。原文链接:[Large-Scale Learnable Graph Convolutional Networks](https://arxiv.org/abs/1808.03965?context=stat.ML)