Semi-Supervised Classification with Graph Convolutional Networks

H(l+1)=σ(D~12A~D~12H(l)W(l))H^{(l+1)}=\sigma ( \tilde{D} ^ {-\frac{1}{2}} \tilde{A} \tilde{D} ^ {-\frac{1}{2}} H^{(l)} W^{(l)})

  • D~12A~D~12\tilde{D} ^ {-\frac{1}{2}} \tilde{A} \tilde{D} ^ {-\frac{1}{2}} 利用对称矩阵的形式归一化 renormalization

    • 避免顶点的度越大,学到的表示越大

    • A 是图的邻接矩阵

    • D 是顶点的度矩阵,对角线上的元素依次是各个顶点的度

    • A~=A+IN\tilde{A}=A+I_N

  • H(l+1)=σ(A~H(l)W(l))H^{(l+1)}=\sigma\left(\tilde{A} H^{(l)} W^{(l)}\right)

    • A~\tilde{A} 矩阵 nn,H(l)H^{(l)} 矩阵 nm,WW 矩阵 mu,H(l+1)H^{(l+1)} 矩阵 nu

    • A~H(l)\tilde{A} H^{(l)} 考虑节点本身和邻居的信息

+ 
作者

Ryen Xiang

发布于

2024-10-05

更新于

2024-10-05

许可协议


网络回响

评论