最近在做实验的时候发现了一个非常神奇的问题,搞得我一度很郁闷。我在 kaggle 上面写了个 mxnet symbolic 的程序,在测试集上效果不错,论文都写完了,结果拿回实验室的 GPU 上一跑,发现结果复现不了了,差了两个点。但我所有的实验都做了 10 次,如果说 1 次实验效果好还可以说是巧合,但这是 10 次实验啊。
IJCAI 2019. 原文链接:[STG2Seq: Spatial-temporal Graph to Sequence Model for Multi-step Passenger Demand Forecasting](https://arxiv.org/abs/1905.10069.pdf)
ICML 2019,原文地址:[Self-Attention Graph Pooling](https://arxiv.org/abs/1904.08082)
WSDM 2019,原文链接:[Session-based Social Recommendation via Dynamic Graph Attention Networks](https://arxiv.org/abs/1902.09362)
AAAI 2019,网格流量预测,对比ST-ResNet,抛出三个问题,卷积捕获的空间范围小、人口流动和区域的功能相关、之前的融合机制不好。改了一下残差卷积,给 POI 信息增加了时间维度,多组件的信息提前融合,减少了参数,稳定模型训练。原文链接:[DeepSTN+: Context-aware Spatial-Temporal Neural Network for Crowd Flow Prediction in Metropolis](https://github.com/FIBLAB/DeepSTN/blob/master/docs/5624_AAAI19_DeepSTN%2B_Camera_Ready.pdf)