ICLR 2018。图注意力网络,使用 self-attention 来构建 graph attentional layer,attention 会考虑当前顶点所有的邻居对它的重要性,基于谱图理论的模型不能应用到其他不同结构的图上,而这个基于attention的方法能有效的解决这个问题。原文链接:[Graph Attention Networks](https://arxiv.org/abs/1710.10903)
FHWA数据数据地址:[https://www.fhwa.dot.gov/policyinformation/tables/tmasdata/](https://www.fhwa.dot.gov/policyinformation/tables/tmasdata/)数据包含了2011到2016年的全年数据。数据说明:[https://www.fhwa.dot.gov/policyinformation/tmguide/](https://www.fhwa.dot.gov/policyinformation/tmguide/)说明共有三版,但是数据对应的其实是最老的一个版本,2001年修订的那个文档。
MnDOT的全称是Minnesota Department of Transportation。RTMC traffic data是其的一个子集。美国明尼苏达州双子城交通管理中心的交通数据。地址:[http://www.d.umn.edu/~tkwon/TMCdata/TMCarchive.html](http://www.d.umn.edu/~tkwon/TMCdata/TMCarchive.html)
IJCAI 2018,看了一部分,还没看完。原文链接:[GeoMAN: Multi-level Attention Networks for Geo-sensory Time Series Prediction](https://www.ijcai.org/proceedings/2018/476)