复杂网络基础
觉得最近应该把复杂网络的基础知识捡一捡,去年上课虽然学过,不过基本都忘了,什么betweeness,都不知道是什么了。最近要做复杂网络方面的研究,这些知识是必需的。打算看一下Newman的书”Networks an Introduction”。
觉得最近应该把复杂网络的基础知识捡一捡,去年上课虽然学过,不过基本都忘了,什么betweeness,都不知道是什么了。最近要做复杂网络方面的研究,这些知识是必需的。打算看一下Newman的书”Networks an Introduction”。
NIPS 2017。提出的方法叫 GraphSAGE,针对的问题是之前的 NRL 是 transductive,不能泛化到新结点上,而作者提出的 GraphSAGE 是 inductive。主要考虑了如何聚合顶点的邻居信息,对顶点或图进行分类。原文链接:Inductive Representation Learning on Large Graphs
NIPS 2016。DCNNs,写的云里雾里的,不是很懂在干什么。。。就知道是融入了转移概率矩阵,和顶点的特征矩阵相乘,算出每个顶点到其他所有顶点的 $j$ 步转移的特征与转移概率的乘积,成为新的顶点表示,称为diffusion-convolutional representation,然后乘以一个卷积核,套一个激活,卷积就定义好了。应用还是在顶点分类与图分类上。原文链接:Diffusion-Convolutional Neural Networks。
leetcode algorithms #5. Title: Longest Palindromic Substring
leetcode algorithms #4. Title: 两个排序数组的中位数.这题还没搞
重新定义了卷积的定义,利用$k$阶邻接矩阵,定义考虑$k$阶邻居的卷积,利用邻接矩阵和特征矩阵构建能同时考虑顶点特征和图结构信息的卷积核。在预测顶点、预测图、生成图三个任务上验证了模型的效果。原文链接:Graph Convolution: A High-Order and Adaptive Approach
写完公式渲染不出来,比如\vec{i}_j就会出错
发现了一个特别好看的主题,yilia,但是已经不维护了,坑还挺多的,记录一下。
ICLR 2018。图注意力网络,使用 self-attention 来构建 graph attentional layer,attention 会考虑当前顶点所有的邻居对它的重要性,基于谱图理论的模型不能应用到其他不同结构的图上,而这个基于attention的方法能有效的解决这个问题。原文链接:Graph Attention Networks
FHWA数据
数据地址:https://www.fhwa.dot.gov/policyinformation/tables/tmasdata/
数据包含了2011到2016年的全年数据。
数据说明:https://www.fhwa.dot.gov/policyinformation/tmguide/
说明共有三版,但是数据对应的其实是最老的一个版本,2001年修订的那个文档。