Spatiotemporal Multi-Graph Convolution Network for Ride-hailing Demand Forecasting

AAAI 2019,滴滴的网约车需求预测,5个点预测1个点。空间依赖建模上:以图的形式表示数据,从空间地理关系、区域功能相似度、区域交通连通性三个角度构造了三个不同的图,提出了多图卷积,分别用 k 阶 ChebNet 对每个图做图卷积,然后将多个图的卷积结果进行聚合(sum, average 等)成一个图;时间依赖建模上:提出了融合背景信息的 Contextual Gated RNN (CGRNN),用 ChebNet 对每个结点卷积后,得到他们的邻居表示,即每个结点的背景信息表示,与原结点特征拼接,用一个两层全连接神经网络计算出 T 个权重,将权重乘到历史 T 个时刻的图上,对历史值进行缩放,然后用一个共享的 RNN,针对每个结点形成的长度为 T 的时间序列建模,得到每个结点新的时间表示。最后预测每个点的网约车需求。原文地址:Spatiotemporal Multi-Graph Convolution Network for Ride-hailing Demand Forecasting

Read More

Deeper Insights into Graph Convolutional Networks for Semi-Supervised Learning

AAAI 2018。这篇论文很有趣,讲的是 GCN 堆得过多了之后,效果会变差的问题。作者分析了一下为什么会变差,主要是因为 GCN 的本质实际上是对每个结点的邻居特征和自身特征做线性组合,权重和邻接矩阵相关,所以对于顶点分类问题来说,如果堆得层数多了,就会让一个结点的特征聚合越来越多邻居的特征,让大家都变得相似,从而使得类间的相似度增大,自然分类效果就差了。作者提出了两个方法解决这个问题,算训练上的 trick 吧。原文链接:Deeper Insights into Graph Convolutional Networks for Semi-Supervised Learning

Read More

Large-Scale Learnable Graph Convolutional Networks

KDD 2018.将图结构数据变换到网格状数据中,使用传统的一维卷积进行卷积。变换的方式是:针对每个特征的大小,对邻居结点进行排序,取这个特征前k大的数作为它邻居这列特征的k个值。如果邻居不够,那就用0来补。这样就能得到该顶点的邻居信息,组成一个矩阵,然后使用一维卷积。但是作者没说为什么非要取最大的k个数。原文链接:Large-Scale Learnable Graph Convolutional Networks

Read More

Diffusion Convolutional Recurrent Neural Network: Data-Driven Traffic Forecasting

ICLR 2018,DCRNN,模型借鉴了Structured Sequence Modeling With Graph Convolutional Recurrent Networks (ICLR 2017 reject)里面的DCRNN,将该模型应用于了交通预测上。而且后者的论文使用的卷积是Defferrard提出的图卷积,这篇论文中使用的是扩散卷积,这种扩散卷积使用的是随机游走,与Diffusion-Convolutional Neural Networks (NIPS 2016)的扩散卷积还不一样。构造出来的DCRNN使用了Structured Sequence Modeling With Graph Convolutional Recurrent Networks (ICLR 2017 reject)两种形式中的模型2,即使用扩散卷积学习出空间表示后,放入GRU中进行时间上的建模。原文链接:Diffusion Convolutional Recurrent Neural Network: Data-Driven Traffic Forecasting

Read More

复杂网络基础

觉得最近应该把复杂网络的基础知识捡一捡,去年上课虽然学过,不过基本都忘了,什么betweeness,都不知道是什么了。最近要做复杂网络方面的研究,这些知识是必需的。打算看一下Newman的书”Networks an Introduction”。

Read More