|基于图神经网络的知识图谱研究进展( 三 )


本文插图

实体消歧 , 即对于从文本中抽取得到的实体对象 , 将其链接到知识库中对应的正确实体对象 。 如图3所示 , Hu等人[23]提出了一种图神经实体消歧模型(Graph Neural Entity Disambiguation, GNED) , 首先为文档构造实体–词异质图 , 对文档中的实体之间的语义关系进行编码;然后将GCN应用于该异质图 , 获得语义信息增强的实体表示;最后采用条件随机场来结合实体链接的局部和全局信息 。
|基于图神经网络的知识图谱研究进展
本文插图

实体对齐
实体对齐是将从知识图谱中学习到的描述同一目标的实体或概念进行合并 , 再将合并后的实体集与开放链接数据中抽取的实体进行合并 , 旨在融合多个知识图谱形成一个更完整的知识图谱 。 由于图神经网络具有识别同构子图的能力[24] , 而可对齐的实体对周围通常有相似的邻居 , 即具有一定的同构特征 , 因此目前有许多研究者尝试将图神经网络用于实体对齐 。
Cao等人[25]提出了一种新的多通道图神经网络模型(Multi-Channel Graph Neural Network , MuGNN) , 来为两个不同的知识图谱中的待对齐实体学习鲁棒表示 。 该模型还对规则进行了推断和传递 , 以进一步增强两个知识图谱的一致性 。 Zhang等人[26]提出了一种统一的框架LinKG来合并不同来源的知识图谱 , 同时为了将歧义性强的实体(如人名)正确对齐 , 还提出了一种异质图注意力网络(Heterogeneous Graph Attention Network) , 在相关的子图上学习每对候选者是否匹配 。 Sun等人[27]指出大量的对应实体对不具有同构的邻居结构 , 导致图神经网络为此类实体产生的实体表示并不匹配 , 由此提出AliNet(Alignment Network) , 基于注意力机制引入了远距离的邻居以扩展邻居结构的重叠部分 , 增强了对应实体对的同构性 。 在实体对齐中有一类特殊的子任务 , 即跨语言实体对齐 。 Wang等人[28]通过多个GCN实现跨语言实体对齐 。 该方法分别使用一个GCN将每种语言的实体和关系分别嵌入到一个统一的空间中 , 从而为属性和结构都学习一个表示 , 最后基于这两种表示进行实体对齐 。 与之不同的是 , Xu等人[29]基于给定实体的邻域子图 , 将实体对齐问题转化为了图匹配问题 , 提出了一种基于图注意力的方法 , 对两个实体子图中的所有实体进行匹配 , 并对局部匹配信息建模 , 最终得到一个图级别的匹配向量 。
链接预测
链接预测是用于预测知识图谱中实体对之间所缺少关系的任务 , 具有广泛的应用范围 , 旨在解决知识图谱不完整的问题 。 链接预测与知识图谱表示学习有着不可分割的联系 , 一方面表示学习通常需要用链接预测评价优劣[10,15] , 另一方面链接预测的模型通常也会学得实体和关系的表示 。 许多工作利用图神经网络为实体引入邻实体和对应关系的信息 , 学得更全面的实体表示 , 从而更准确地预测实体之间的链接关系 。
GMatching[30]开发了一种基于度量小样本学习方法 , 它利用R-GCN[10]为单跳邻居进行编码从而捕捉局部的图结构信息 。 由于R-GCN的一个不足之处是平等地对待邻域中的不同实体 , SACN(Structure-Aware Convolutional Network)[31]引入了加权GCN来定义具有相同关系类型的两个相邻实体之间的相关性 , 利用节点结构、节点属性和关系类型来获取知识图谱中的结构信息 , 最后送入解码器Conv-TransE来预测关系是否成立 。 解码器采用ConvE[32]来度量语义的匹配程度 , 同时还可以获得TransE[14]的翻译特性 。 目前常见的学习个性化权重的方式是引入注意力机制 , 因此纳撒尼尔(Nathani)等人[33]引入GAT[8]使得链接预测时可以在利用邻实体信息的同时 , 依据多头注意力机制为不同邻实体分配不同的权重 。 Zhang等人[34]进一步提出了一种基于层次注意力的关系图神经网络(RGHAT) , 第一层是关系级别的注意力 , 其灵感来自不同关系对某一实体的指示权重不同的直觉;第二层是实体级别关注 , 使得模型能够突出同一关系下不同相邻实体的重要性 。 G2SKGE[35]采用了实体和对应的邻域构建子图 , 并设计了一种信息融合机制图到序列(Graph to Sequence generator , Graph2Seq) , 从而利用图神经网络的框架来学习知识图谱中的实体表示 。


推荐阅读