徐土豆
认证:优质创作者
所在专题目录 查看专题
在图卷积网络中的可导池化操作
作者动态 更多
给定计算预算下的最佳LLM模型尺寸与预训练数据量分配
3星期前
大模型推理时的尺度扩展定律
3星期前
世界多胞体与世界模型
05-13 09:42
奖励模型中的尺度扩展定律和奖励劫持
05-12 08:41
MeCo——给预训练数据增加源信息,就能减少33%的训练量并且提升效果
05-08 09:13

在图卷积网络中的可导池化操作

本文转自徐飞翔的“在图卷积网络中的可导池化操作

版权声明:本文为博主原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。

这一篇搁了很久了,今天突然想到就顺手写完了吧。之前我们在[1,2,3]中曾经讨论过图卷积网络的推导,以及其和消息传递(message passing)之间的关系,但是我们还没有讨论一个重要问题,那就是在图卷积网络中的池化(pooling)操作。池化操作对于一个卷积网络来说是很重要的,特别是对于节点众多的大规模图卷积网络,池化可以使得网络的参数大幅度减少,增强泛化性能并且提高模型的层次性结构化特征性能等。如何在图卷积网络中定义出如同在卷积网络中的可导的池化操作呢?单纯的聚类操作因为缺乏梯度流,不能实现端到端的训练而不能直接使用,在文章[4]中提出了DiffPool算子,该算子可以实现图卷积网络的可导池化。

poolFig 1. 对于卷积网络中的池化操作,要怎么才能在图卷积网络中找到其合适的替代品呢?DiffPool

DiffPool的思路很简单,可以用Fig 2表示,其中的 是上一层的输出特征,而表示第层的节点数。其中的DiffPool操作其实很简单,就是用一个分配矩阵(assign matrix)去进行自动聚类,有:

其中的 就是第层的分配矩阵,注意到其是一个实矩阵。

Fig 2. DiffPool的示意简图。

现在的问题在于分配矩阵如何学习得到,可以认为DiffPool是一个自动端到端聚类的过程,其中分配矩阵代表了该层聚类的结果。如Fig 2所示,我们发现第 层的分配矩阵和特征都是由共同输入学习得到的,我们有:

其中的 表示的是由图卷积单元层叠若干次而成的卷积模块,其中每一层可以表示为

其中的 表示的是经典的消息传递过程,具体见[3]。注意到的形状决定了下一层的节点数,参考公式(3),这个超参数由 指定,而显然有 。为了约束分配矩阵的值的范围,对其进行了概率分布化,也即是,按论文的说法,是逐行(row-wise)生效的。

中则负责特征的生成,再与分配矩阵进行DiffPool,见式子(1),即完成了整个操作。辅助训练目标

然而据文章说,在实践中,单纯依靠梯度流去训练可导池化版本的GNN难以收敛,需要加些辅助约束条件。作者加了几个先验约束,第一作者认为 一个节点邻居的节点应该尽可能地池化到一起 (nearby nodes should be pooled together),通过Frobenius 范数进行约束,有式子(4)

另一个约束是,分配矩阵的应该每一行尽可能是一个one-hot向量,这样每个聚类结果才能更清晰地被定义出来。通过最小化熵可以对其进行约束,有:

其中 表示对的第行求熵(entropy)。作者声称在图分类损失中添加(4)和(5)约束可以有着更好的性能,即便训练收敛需要更长的时间才能达到。从结果Fig 3中可以发现的确是添加了约束的效果要好些。其中在GraphSAGE的基线上,和其他池化方法(SET2SET,SORTPOOL)的对比说明了DiffPool的有效性和先进性。

Fig 3. 实验结果图。More

那么DiffPool得到的分配矩阵结果是否可靠呢?是否可以看成是聚类的结果呢?作者在原文中也提及了这件事儿,并且对池化结果进行了可视化,如Fig 4所示。可以发现DiffPool其的确是对节点进行了合理的聚类。

visFig 4. DiffPool结果的可视化,可以形成合理的聚类结果。

就笔者个人的读后感而已,DiffPool的操作类似于现在流行的自注意学习机制,分配矩阵不妨可以看成是自注意力矩阵对节点进行聚类,也可以认为自注意力机制在图网络中也是生效的。

Reference

[1]. https://fesian.blog.csdn.net/article/details/88373506

[2]. https://blog.csdn.net/LoseInVain/article/details/90171863

[3]. https://blog.csdn.net/LoseInVain/article/details/90348807

[4]. Ying, Rex, Jiaxuan You, Christopher Morris, Xiang Ren, William L. Hamilton, and Jure Leskovec. “Hierarchical graph representation learning with differentiable pooling.” arXiv preprint arXiv:1806.08804 (2018).

声明:本内容为作者独立观点,不代表电子星球立场。未经允许不得转载。授权事宜与稿件投诉,请联系:editor@netbroad.com
觉得内容不错的朋友,别忘了一键三连哦!
赞 1
收藏 1
关注 52
成为作者 赚取收益
全部留言
0/200
成为第一个和作者交流的人吧