博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Estimating Node Importance in Knowledge Graphs Using Graph Neural Networks
阅读量:4226 次
发布时间:2019-05-26

本文共 3096 字,大约阅读时间需要 10 分钟。

这是一篇将GNN运用在预测知识图谱(Knowledge Graph)节点重要性的文章,被KDD2019接收。文中提出了GENI模型,在GNN聚合信息的过程中只聚合一个标量(score)而不是聚合节点的embedding。

Introduction

KG

知识图谱可以看做是一个有向多关系图,并且节点之间可能存在不止一条边。

Given a KG, estimating the importance of each node is a crucial task that enables a number of applications such as recommendation, query disambiguation, and resource allocation optimization.

An importance score is a value that represents the significance or popularity of a node in the KG.

Method

table of symbols

在这里插入图片描述

score aggregation

在第 l l l层上,中心节点 i i i通过加权聚合邻居节点的score-estimation s ℓ − 1 ( j ) s^{\ell-1}(j) s1(j)来更新自己的score-estimation

s ℓ ( i ) = ∑ j ∈ N ( i ) ∪ { i } α i j ℓ s ℓ − 1 ( j ) s^{\ell}(i)=\sum_{j \in N(i) \cup\{i\}} \alpha_{i j}^{\ell} s^{\ell-1}(j) s(i)=jN(i){
i}
αijs1(j)
为了获得初始的 s 0 ( i ) s^0(i) s0(i),模型通过一个全连接层将节点的embedding映射成初始的score: s 0 ( i ) =  Scoring N e t w o r k ( z ⃗ i ) s^{0}(i)=\text { Scoring} \mathrm{Network}\left(\vec{z}_{i}\right) s0(i)= ScoringNetwork(z i)
聚合过程是在聚合标量而不是向量,所以本文的GNN模型和其他大多数GNN模型不太一样。

Predicate-Aware Attention Mechanism

知识图谱一般可以写成三元组的形式:(subject, predicate, object),可以看做是图上一条边上的(起点,边的类型,终点)。为了更好地得到在聚合过程中的 α i j ℓ \alpha_{i j}^{\ell} αij的值,一个合理的想法是 α i j ℓ \alpha_{i j}^{\ell} αiji,j之间边的类型有关系。使用 p i j m p^m_{ij} pijm表示i,j之间第m条边的类型, ϕ ( p i j m ) \phi(p^m_{ij}) ϕ(pijm)是这条边的向量表示。通过attention机制计算出 α i j ℓ \alpha_{i j}^{\ell} αij

α i j ℓ = exp ⁡ ( σ a ( ∑ m a ⃗ ℓ ⊤ [ s ℓ ( i ) ∥ ϕ ( p i j m ) ∥ s ℓ ( j ) ] ) ) ∑ k ∈ N ( i ) ∪ { i } exp ⁡ ( σ a ( ∑ m a ⃗ ℓ ⊤ [ s ℓ ( i ) ∥ ϕ ( p i k m ) ∥ s ℓ ( k ) ] ) ) \alpha_{i j}^{\ell}=\frac{\exp \left(\sigma_{a}\left(\sum_{m} \vec{a}_{\ell}^{\top}\left[s^{\ell}(i)\left\|\phi\left(p_{i j}^{m}\right)\right\| s^{\ell}(j)\right]\right)\right)}{\sum_{k \in N(i) \cup\{i\}} \exp \left(\sigma_{a}\left(\sum_{m} \vec{a}_{\ell}^{\top}\left[s^{\ell}(i)\left\|\phi\left(p_{i k}^{m}\right)\right\| s^{\ell}(k)\right]\right)\right)} αij=kN(i){

i}exp(σa(ma [s(i)ϕ(pikm)s(k)]))exp(σa(ma [s(i)ϕ(pijm)s(j)]))

Centrality Adjustment

通常来说,图上入度越大的节点它的重要性就越高,所以可以使用 c ( i ) = log ⁡ ( d ( i ) + ϵ ) c(i)=\log (d(i)+\epsilon) c(i)=log(d(i)+ϵ)计算初始的中心性得分,但这样直接计算出来的结果不能准确地衡量入度和中心性之间的关系,所以又加上了两个可学习的参数 γ \gamma γ β \beta β c ∗ ( i ) = γ ⋅ c ( i ) + β c^{*}(i)=\gamma \cdot c(i)+\beta c(i)=γc(i)+β通过综合考虑 c ∗ ( i ) c^{*}(i) c(i)和最后一层的输出 s L ( i ) s^{L}(i) sL(i)得到节点i最终的score s ∗ ( i ) = σ s ( c ∗ ( i ) ⋅ s L ( i ) ) s^{*}(i)=\sigma_{s}\left(c^{*}(i) \cdot s^{L}(i)\right) s(i)=σs(c(i)sL(i))

architecture

在这里插入图片描述

为了增强注意力的效果,模型使用了多头注意力机制

We define s h ′ ℓ − 1 ( j ) s_{h}^{\prime \ell-1}(j) sh1(j)to be node i’s score that is estimated by (ℓ − 1)-th layer, and fed into h-th SA head in ℓ-th (i.e., the next) layer, which in turn produces an aggregation s h ℓ ( i ) s_{h}^{\ell}(i) sh(i) of these scores:

s h ℓ ( i ) = ∑ j ∈ N ( i ) ∪ { i } α i j h , ℓ s h ′ ℓ − 1 ( j ) s_{h}^{\ell}(i)=\sum_{j \in \mathcal{N}(i) \cup\{i\}} \alpha_{i j}^{h, \ell} s_{h}^{\prime \ell-1}(j) sh(i)=jN(i){

i}αijh,sh1(j)
在这里插入图片描述
在第 l l l层会得到 H l H^l Hl s h l ( i ) s^l_h(i) shl(i)值,将它们取平均后得到 s h ′ l ( i ) s_{h}^{\prime l}(i) shl(i)作为第 l + 1 l+1 l+1层的输入。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

转载地址:http://xtdqi.baihongyu.com/

你可能感兴趣的文章
Effective C++条款16:成对使用new和delete时要采取相同形式
查看>>
sizeof与strlen
查看>>
一个递归+二分法的洗牌程序
查看>>
YUV格式注释
查看>>
一维、二维数组传参
查看>>
判断当前时间的下一秒是多少
查看>>
从文本文件中读取数据排序并输出到文本
查看>>
求一个整数数组中第二大的数
查看>>
删除一个链表中的节点
查看>>
计算机网络面试整理【转】
查看>>
cookie和session区别详解
查看>>
程序员失业第一步?斯坦福研究员用AI从编译器反馈中学习改Bug
查看>>
原创 | 电视广告流量预测中的“常识”陷阱,你掉进去了吗?
查看>>
DeepMind发布最新《神经网络中持续学习》综述论文!
查看>>
本科三篇顶会一作、超算竞赛冠军,2020清华本科特奖结果出炉
查看>>
多语言互通:谷歌发布实体检索模型,涵盖超过100种语言和2000万个实体
查看>>
你的房东可能正用AI筛查你的犯罪记录,决定要不要租房给你
查看>>
AI把爱豆变胖视频火遍B站,我们找到了背后的技术团队:你是怎么把刘亦菲变胖的?...
查看>>
白硕:区块链技术与数据隐私(附视频)
查看>>
数据蒋堂 | 报表工具的SQL植入风险
查看>>