Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition

AAAI 2018,以人体关节为图的顶点,构建空间上的图,然后通过时间上的关系,连接连续帧上相同的关节,构成一个三维的时空图。针对每个顶点,对其邻居进行子集划分,每个子集乘以对应的权重向量,得到时空图上的卷积定义。实现时使用Kipf & Welling 2017的方法实现。原文链接:[Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition](https://arxiv.org/abs/1801.07455)

Image Super-Resolution Using Deep Convolutional Networks

PAMI 2016,大体思路:把训练集中的所有样本模糊化,扔到三层的卷积神经网络中,把输出和原始图片做一个loss,训练模型即可。原文链接:[Image Super-Resolution Using Deep Convolutional Networks](https://arxiv.org/abs/1501.00092)

Perceptual Losses for Real-Time Style Transfer and Super-Resolution

ECCV 2016,实时风格迁移与超分辨率化的感知损失,这篇论文是在cs231n里面看到的,正好最近在研究风格迁移。一作是Justin Johnson,2017春的cs231n的主讲之一。这篇论文的主要内容是对Gatys等人的风格迁移在优化过程中进行了优化,大幅提升了性能。主要原理就是,之前Gatys等人的论文是利用已经训练好的VGG19,求loss并利用VGG的结构反向求导更新图片。由于VGG结构复杂,这样反向更新速度很慢,改进方法是再另外设计一个神经网络,将内容图片作为输入,输出扔到VGG中做两个loss,然后反向传播更新当前这个神经网络的参数,这样训练出来的神经网络就可能将任意的内容图片扔进去,输出为风格迁移后的图片,这也就解决了速度的问题。这也就是将Feed-forward image transformation与style transfer结合在一起。原文链接:[Perceptual Losses for Real-Time Style Transfer and Super-Resolution](https://arxiv.org/abs/1603.08155)