【网络表示学习】GCN
问题描述
卷积神经网络(CNN)的输入图片是具有欧几里得结构的图结构,具有规则的空间结构,比如图片是规则的正方形栅格,比如语音是规则的一维序列。而这些数据结构能够用一维、二维的矩阵表示,卷积神经网络处理起来很高效。
而广义上的图(graph)是非欧几里得结构,不规则的空间结构。图卷积神经网络就是以某种方式将卷积算子推广到任意图数据上。融合节点特征和图的拓扑结构,利用深度学习生成新的表示的方法。
图卷积神经网络具有卷积神经网络的以下性质
- 局部参数共享:算子适用于每个节点,处处共享
- 感受域正比于层数:最开始,每个节点包含直接邻居的信息,然后把邻居的邻居的信息包含近来。层数越多,感受域越广。
GCN
模型
是邻接矩阵加上自环, 是单位矩阵,
ChebNet
谱图卷积
图的谱卷积(spectral convoluton)定义为信号 与滤波器 $g_\theta ={\rm diag}(\theta) $ 相乘,其中 为傅里叶系数向量。
其中是归一化图拉普拉斯矩阵的特征向量构成的矩阵,归一化图拉普拉斯矩阵 ,因为 是实对称矩阵,所以
是的特征值构成的对角矩阵,是的图傅里叶变换。我们可以将理解为的特征值的函数,即 $ g_{\theta} (\Lambda) = \sum_{k=0}^{K-1}\theta_{k} \Lambda^{k} $ ,其中 为多项式系数向量。
在大图中计算 的特征分解复杂度很高,为了解决问题,使用切比雪夫多项式直到第阶的截断展开来近似
其中 $ \tilde{\Lambda} = \frac{2}{\lambda_{\rm max}} \Lambda - I_N$, 是中最大的特征值, 是切比雪夫系数向量。切比雪夫多项式定义为$ T_{k}(x) = 2xT_{k-1}(x) - T_{k-2}(x)$ 其中 $ T_0 = 1 $ ,$ T_1 = x$。因此信号与滤波器相乘可近似为:
其中$ \tilde{L} = \frac{2}{\lambda_{\rm max}} L - I_NL$ 的K阶展开,即依赖于从中心节点出发最多K步内能到达的节点(K阶邻居)。该式计算复杂度为 ,与边数呈线性关系。
模型
其中$T_k(\tilde L) = 2{\tilde L}T_{k-1}(\tilde L) - T_{k-2}(\tilde L) T_1(\tilde L) = \tilde L, T_0(\tilde L) =I_NH^{(0)}=X$
FastGCN
总结
传播模型
模型 | 传播模型 | 介绍 | 计算复杂度 |
---|---|---|---|
GCN | 一阶近邻近似,多层叠加 | $O( | |
ChebNet | 利用截断的切比雪夫多项式近似,K阶近似 | ||
MLP |
Reference
[1] T. N. Kipf and M. Welling, ``Semi-supervised classification with graph convolutional networks,’’ Int. Conf. Learn. Representations, pp. 1-14, 2017.
[2] M. Defferrard and P. Bresson, X.and Vandergheynst. Convolutional neural networks on graphs with fast localized spectral filtering. In NIPS, 2016.