《Neural Collaborative Filtering》WWW 2017。这篇论文使用全连接神经网络实现了一个矩阵分解的推荐系统。给定一个user的特征表示,给定一个item的特征表示,通过神经网络输出用户对这个item感兴趣的分数。原文链接:[Neural Collaborative Filtering](https://arxiv.org/abs/1708.05031)。
之前项目中有个任务是读取一堆二进制文件,对二进制文件进行解析,然后存到HBase。由于有 .mat 文件,整个 spark 都用 pyspark 写来着,也没用 scala。最近天天都在写文档啥的,还得写毕业论文,觉得太没劲了就研究了一下优化的问题,顺便更新下博客,好久没更新了。
AAAI 2020,原文链接:[https://arxiv.org/abs/1911.12093](https://arxiv.org/abs/1911.12093)。
AAAI 2020,使用编码解码+att的架构,只不过编码和解码都使用 attention 组成。主要的论点是空间和时间的关联性是动态的,所以设计这么一个纯注意力的框架。值得注意的点是:由于注意力分数的个数是平方级别的,在计算空间注意力的时候,一旦结点数很大,这里会有超大的计算量和内存消耗,这篇文章是将结点分组后,计算组内注意力和组间注意力。原文链接:[https://arxiv.org/abs/1911.08415](https://arxiv.org/abs/1911.08415)。
刚才开源了我们组在AAAI 2020上一篇论文的代码和数据,上传数据的时候超了GitHub的100M大小限制,GitHub说让我用lfs解决,研究了一下怎么传,记录一下,以后说不定还会用到。