品牌授权网站,怎么设置网站的关键字,公司网站建设基本流程,海曙区住房和建设局网站论文笔记整理#xff1a;谭亦鸣#xff0c;东南大学博士。来源#xff1a;Knowledge-Based Systems 197 (2020) 105910链接#xff1a;https://www.sciencedirect.com/science/article/abs/pii/S0957417419306839概要与动机知识图谱推理是图谱构建的关键技术之一#xff0… 论文笔记整理谭亦鸣东南大学博士。来源Knowledge-Based Systems 197 (2020) 105910链接https://www.sciencedirect.com/science/article/abs/pii/S0957417419306839概要与动机知识图谱推理是图谱构建的关键技术之一它在包括垂直搜索和智能问答等应用场景中有着重要作用。推理的目标是根据已知实体和关系推断所需的未知实体。现有的推理方法主要基于embedding实现即对所有的实体和关系做整体embedding然后利用向量相似度推断实体间的关系或者给定三元组是否为真。但是在真实的应用场景中我们需要一个清晰且可解释的实体作为输出。本文提出一种基于注意力机制的知识图谱深度强化学习框架ADRL用于学习多跳关系路径通过深度学习及强化学习结构化感知从而提高传统方法效率泛化能力及可解释性。贡献本文的主要贡献包括1.提出了一个面向知识图谱推理的基于深度学习的新框架相较传统方法该框架科研有效提升性能及可解释性2.设计了一个关系模型作为推理框架的通用插件其中的self-attention能够循环推断实体之间的关系以引导一个model-free的策略这一做法相对前人工作更有助于agent推断关系路径3.利用actor-critic方法有效解决了奖励系数问题其中奖励取决于价值函数并将同策略一起被训练和优化模型与算法本文提出框架的整个过程如下图所示其过程大体可以描述为1.首先将知识图谱的agent环境输入卷积神经网络CNN2.利用深度CNN将其映射到低维向量且可以在每个级别可以传递信息3.接着使用LSTM使用校正的线路单ReLU激活函数用于储存生成的历史轨迹构成策略与价值函数4.上述步骤的输出被输入进一个关系模型模型中包含一个self-attention模块用于推断和分享实体向量及关系向量的权值5.利用一个特征感知的最大池化层对关系模型的输出进行聚合最后传递给一个MLP接着是ReLU激活函数用于产生一个策略以及一个基准标量价值函数可以被用作一个agent奖励在优化算法方面作者考虑到基于梯度下降的方法效率较低而蒙特卡洛抽样依赖于大量积极奖励尤其是学习初始阶段为了解决这些问题作者选择Actor-Critic一种结合策略梯度和顺序差异学习的强化学习方法。Actor-Critic算法可以执行单步更新参数使用值函数作为基础函数来减少策略梯度的差异而无需等待回合结束并且在训练过程中可以同时学习策略和价值函数算法流程如下图实验与结果实验数据本文实验所使用的数据是目前较为流行的KG推理数据集WN18RR,FB15K-237,NELL-995,其统计信息如表1.表2是linkprediction实验结果本文方法展现出了更好的性能作者认为是共享的实体及关系权值带来了更佳的性能表现。表3是factprediction的结果作者认为本文方法的优势在于“the reason is that our model is more complex than the previous model, introducing more state-of-the-art methods” OpenKG开放知识图谱简称 OpenKG旨在促进中文知识图谱数据的开放与互联促进知识图谱和语义技术的普及和广泛应用。点击阅读原文进入 OpenKG 博客。