AAAI 2017, Intensity RNN: [Modeling The Intensity Function Of Point Process Via Recurrent Neural Networks](https://arxiv.org/pdf/1705.08982.pdf)。相比RMTPP,用LSTM。然后模型加了一个时间序列模块,主要是为了支持有时间序列信息的数据集。然后计算事件发生时间的损失时,用了一个高斯核函数。本质上还是MSE,没啥区别。
NIPS 2021, datasets and benchmarks track, [MULTIBENCH: Multiscale Benchmarks for Multimodal Representation Learning](https://openreview.net/pdf?id=izzQAL8BciY)。代码:[MultiBench](https://github.com/pliang279/MultiBench)。这是个benchmark,涵盖15个数据集,10个模态,20个预测任务,6个研究领域。
[Semi-supervised Learning for Marked Temporal Point Processes](https://arxiv.org/pdf/2107.07729.pdf)。MTPP的半监督学习,模型称为SSL-MTPP。有标签的地方就用RMTPP,没有标签的地方用RMTPP的编码器和解码器来重构。两边的损失加在一起优化网络。
[Individual Mobility Prediction via Attentive Marked Temporal Point Processes](https://arxiv.org/pdf/2109.02715.pdf)。代码:[https://github.com/Kaimaoge/AMTPP\_for\_Mobility](https://github.com/Kaimaoge/AMTPP_for_Mobility)。结合深度学习的TPP,用注意力机制增强对事件的表示,使用混合ALL分布对事件间的时间间隔建模,通过学习OD转移概率矩阵给定O预测D。
NIPS 2019, [Unsupervised Scalable Representation Learning for Multivariate Time Series](https://arxiv.org/abs/1901.10738)。T-loss。无监督多元时间序列表示模型。利用word2vec的负样本采样的思想学习时间序列的嵌入表示。代码:[UnsupervisedScalableRepresentationLearningTimeSeries](https://github.com/White-Link/UnsupervisedScalableRepresentationLearningTimeSeries)