重新定义了卷积的定义,利用$k$阶邻接矩阵,定义考虑$k$阶邻居的卷积,利用邻接矩阵和特征矩阵构建能同时考虑顶点特征和图结构信息的卷积核。在预测顶点、预测图、生成图三个任务上验证了模型的效果。原文链接:[Graph Convolution: A High-Order and Adaptive Approach](https://arxiv.org/abs/1706.09916)
写完公式渲染不出来,比如\vec{i}_j就会出错
发现了一个特别好看的主题,yilia,但是已经不维护了,坑还挺多的,记录一下。
ICLR 2018。图注意力网络,使用 self-attention 来构建 graph attentional layer,attention 会考虑当前顶点所有的邻居对它的重要性,基于谱图理论的模型不能应用到其他不同结构的图上,而这个基于attention的方法能有效的解决这个问题。原文链接:[Graph Attention Networks](https://arxiv.org/abs/1710.10903)
FHWA数据数据地址:[https://www.fhwa.dot.gov/policyinformation/tables/tmasdata/](https://www.fhwa.dot.gov/policyinformation/tables/tmasdata/)数据包含了2011到2016年的全年数据。数据说明:[https://www.fhwa.dot.gov/policyinformation/tmguide/](https://www.fhwa.dot.gov/policyinformation/tmguide/)说明共有三版,但是数据对应的其实是最老的一个版本,2001年修订的那个文档。