GMAN: A Graph Multi-Attention Network for Traffic Prediction

AAAI 2020,使用编码解码+att的架构,只不过编码和解码都使用 attention 组成。主要的论点是空间和时间的关联性是动态的,所以设计这么一个纯注意力的框架。值得注意的点是:由于注意力分数的个数是平方级别的,在计算空间注意力的时候,一旦结点数很大,这里会有超大的计算量和内存消耗,这篇文章是将结点分组后,计算组内注意力和组间注意力。原文链接:[https://arxiv.org/abs/1911.08415](https://arxiv.org/abs/1911.08415)。

github大文件上传

刚才开源了我们组在AAAI 2020上一篇论文的代码和数据,上传数据的时候超了GitHub的100M大小限制,GitHub说让我用lfs解决,研究了一下怎么传,记录一下,以后说不定还会用到。

MXNet 与 cuda 版本兼容的问题

最近在做实验的时候发现了一个非常神奇的问题,搞得我一度很郁闷。我在 kaggle 上面写了个 mxnet symbolic 的程序,在测试集上效果不错,论文都写完了,结果拿回实验室的 GPU 上一跑,发现结果复现不了了,差了两个点。但我所有的实验都做了 10 次,如果说 1 次实验效果好还可以说是巧合,但这是 10 次实验啊。