Edge-augmented Graph Transformers: Global Self-attention is Enough for Graphs(EGT)

Published:

Edge-augmented Graph Transformers: Global Self-attention is Enough for Graphs [SIGKDD2022]

image-20230612201436826

  • EGT是直接对图应用全局自注意力
  • 可以直接接受、处理和输出结构信息以及节点信息
  • 位置编码是基于奇异值分解的图的广义编码方案

image-20230617141953086

上述公式中的E和G,都是edge embedding得到的,将其加到base transformer的聚合过程中,相当于让edge channel也参与到聚合过程。

image-20230613145539336

第一个式子将邻接矩阵进行SVD分解,再拆解成 $\hat{U}, \hat{V}$从而得到$\hat{\Gamma}$ ,$\hat{\Gamma}$的每一行包含了edge去噪(denoised)的信息,所以能用作位置编码。($\hat{U}的第i行,\hat{V}的第j行$的点积可以近似邻接矩阵$A_{ij}$)。【不是很懂为什么就包含了edge去噪以后的信息】

实验部分: 作者是在supervised and inductive setting下评估EGT的性能。主要做了node classfication, edge classfication, graph classification and regress.