当前位置: 首页> 汽车> 车展 > Node Mutual Information Enhancing Graph Neural Networks for Heterophily

Node Mutual Information Enhancing Graph Neural Networks for Heterophily

时间:2025/7/9 11:00:21来源:https://blog.csdn.net/chairuilin/article/details/142060701 浏览次数: 0次

#paper/⭐⭐
发表于:Neurips23

k-MIGNN

其利用互信息为message passing加了一个重要性系数,如下:
h v ( t + 1 ) = σ ( h v ( t ) , W ( t + 1 ) ∑ w ∈ V ( I ′ ) k ( v , w ) ⋅ h w ( t ) ) \mathbf{h}_v^{(t+1)}=\sigma\left(\mathbf{h}_v^{(t)},\mathbf{W}^{(t+1)}\sum_{w\in V}(I^{\prime})^k(v,w)\cdot\mathbf{h}_w^{(t)}\right) hv(t+1)=σ(hv(t),W(t+1)wV(I)k(v,w)hw(t))
其实可以和GAT做对照:
h i ( l + 1 ) = ∑ j ∈ N ( i ) α i , j W ( l ) h j ( l ) h_i^{(l+1)}=\sum_{j\in\mathcal{N}(i)}\alpha_{i,j}W^{(l)}h_j^{(l)} hi(l+1)=jN(i)αi,jW(l)hj(l)
可以看到,其相当于将注意力分数用节点互信息机制去代替

粗略公式:(具体公式看论文)

假设,我们有两个节点v和w,以及随机节点变量 X v k , X w k X_{v}^k,X_{w}^k Xvk,Xwk

节点v和节点w的kth节点互信息

I k ( v , w ) : = H k ( v ) + H k ( w ) − H k ( v , w ) I^k(v,w):=H^k(v)+H^k(w)-H^k(v,w) Ik(v,w):=Hk(v)+Hk(w)Hk(v,w)

节点距离被节点互信息引导:

D k ( v , w ) : = 1 − I k ( v , w ) H k ( v , w ) D^k(v,w):=1-\frac{I^k(v,w)}{H^k(v,w)} Dk(v,w):=1Hk(v,w)Ik(v,w)

规范化节点互信息:

( I ′ ) k ( v , w ) : = 1 − D k ( v , w ) = H k ( v ) + H k ( w ) − H k ( v , w ) H k ( v , w ) . (I')^k(v,w):=1-D^k(v,w)=\frac{H^k(v)+H^k(w)-H^k(v,w)}{H^k(v,w)}. (I)k(v,w):=1Dk(v,w)=Hk(v,w)Hk(v)+Hk(w)Hk(v,w).

关键字:Node Mutual Information Enhancing Graph Neural Networks for Heterophily

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: