Layer Normalization,之前看到一篇论文用了这个LN层,看一下这个怎么实现。原文链接:[Layer Normalization](https://arxiv.org/abs/1607.06450.pdf)
AAAI 2018。这篇论文很有趣,讲的是 GCN 堆得过多了之后,效果会变差的问题。作者分析了一下为什么会变差,主要是因为 GCN 的本质实际上是对每个结点的邻居特征和自身特征做线性组合,权重和邻接矩阵相关,所以对于顶点分类问题来说,如果堆得层数多了,就会让一个结点的特征聚合越来越多邻居的特征,让大家都变得相似,从而使得类间的相似度增大,自然分类效果就差了。作者提出了两个方法解决这个问题,算训练上的 trick 吧。原文链接:[Deeper Insights into Graph Convolutional Networks for Semi-Supervised Learning](https://arxiv.org/abs/1801.07606)
NIPS 2015. 将 FC-LSTM 中的全连接换成了卷积,也就是将普通的权重与矩阵相乘,换成了卷积核对输入和隐藏状态的卷积,为了能捕获空间信息,将输入变成了4维的矩阵,后两维表示空间信息。两个数据集:Moving-MNIST 和 雷达云图数据集。原文链接:[Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting](https://arxiv.org/abs/1506.04214)
WWW 2018. 对随机游走进行了改进,提出了Pixie随机游走,实际上就是一个有偏的随机游走,根据相似度进行偏离,从而实现个性化推荐,而且使用了早停策略。原文链接:[Pixie: A System for Recommending 3+ Billion Items to 200+ Million Users in Real-Time](https://arxiv.org/abs/1711.07601)