首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 171 毫秒
1.
多跳推理模型在知识图谱中充分挖掘和利用实体间的多步关系,组成路径信息,完成知识推理,然而,目前的稀疏知识图谱多跳推理模型大多存在数据稀少及推理路径可靠性较低等问题.为了解决该问题,文中提出融合语义信息的知识图谱多跳推理模型.首先,将知识图谱中的实体和关系嵌入向量空间,作为强化学习训练的外部环境.然后,利用查询关系和推理路径的语义信息,选择相似度最高的(关系,实体)对扩充智能体进行路径搜索的动作空间,以此弥补推理过程中数据稀少的不足.最后,使用推理路径和查询关系的语义相似度评价推理路径的可靠性,并作为奖励函数反馈给智能体.在多个公开稀疏数据集上的实验表明,文中模型明显提升推理性能.  相似文献   

2.
董永峰  刘超  王利琴  李英双 《计算机应用》2021,41(10):2799-2805
针对目前知识图谱(KG)中存在大量关系的缺失,以及在进行关系推理时没有充分考虑两实体间多跳路径中隐含信息的问题,提出了一种融合多跳关系路径信息的关系推理方法。首先,对于给定的候选关系和两个实体,利用卷积运算将连接两个实体的多跳关系路径编码到低维空间里并提取信息;其次,利用双向长短时记忆(BiLSTM)网络建模以生成关系路径表示向量,并利用注意力机制将其与候选关系表示向量进行组合;最后,采用多步推理方式找到匹配程度最高的关系作为推理结果并判断其精确率。与目前常用的路径排序算法(PRA)、神经网络模型Path-RNN以及强化学习模型MINERVA相比,在使用大型知识图谱数据集NELL995进行实验时,所提算法的平均精确率均值(MAP)分别提高了1.96、8.6和1.6个百分点;在使用小型知识图谱数据集Kinship进行实验时,所提方法的MAP比PRA、MINERVA分别提高了21.3、13和12.1个百分点。实验结果表明,所提算法能更加准确地推理出实体间的关系链接。  相似文献   

3.
知识图谱表示学习旨在将实体和关系映射到一个低维稠密的向量空间中。现有的大多数相关模型更注重于学习三元组的结构特征,忽略了三元组内的实体关系的语义信息特征和三元组外的实体描述信息特征,因此知识表达能力较差。针对以上问题,提出了一种融合多源信息的知识表示学习模型BAGAT。首先,结合知识图谱特征来构造三元组实体目标节点和邻居节点,并使用图注意力网络(GAT)聚合三元组结构的语义信息表示;然后,使用BERT词向量模型对实体描述信息进行嵌入表示;最后,将两种表示方法映射到同一个向量空间中进行联合知识表示学习。实验结果表明,BAGAT性能较其他模型有较大提升,在公共数据集FB15K-237链接预测任务的Hits@1与Hits@10指标上,与翻译模型TransE相比分别提升了25.9个百分点和22.0个百分点,与图神经网络模型KBGAT相比分别提升了1.8个百分点和3.5个百分点。可见,融合实体描述信息和三元组结构语义信息的多源信息表示方法可以获得更强的表示学习能力。  相似文献   

4.
针对现有动态知识图谱推理方法大多存在同时间多关系下推理能力有限的问题,文中提出基于多关系循环事件的动态知识图谱推理方法.利用改进的多关系邻近聚合器融合目标实体邻域信息,获得更准确的实体邻域向量表示,并通过优化信息融合简化文中方法.同时加入关系预测任务,扩大处理特定范围内两个实体间关系冲突的能力.在大型真实数据集上的实体预测和关系预测的实验表明,文中方法有效提升动态知识图谱的推理能力.  相似文献   

5.
知识图谱是人工智能的重要组成部分,其以结构化的方式描述客观世界中的概念、实体及关系,提供了一种更优的组织、管理和理解互联网海量信息的能力。随着深度学习技术的发展,基于表示学习的知识图谱问答方法陆续出现。利用表示学习的方法实现知识图谱问答的核心目标是将问题嵌入到与三元组相同维度的表示向量空间中,通过合适的答案预测方法来匹配问题与答案。参考复数域编码的思路,构建一种基于位置和注意力联合表示的三元组表示模型Pos-Att-complex。在三元组表示部分,将词本身的特征和位置特征联合编码,并通过解码器网络进一步挖掘深层次特征,从而对三元组进行打分。在知识图谱问答部分,将问题通过RoBERTa嵌入到与三元组向量相同维度的向量空间中,并与通过关系筛选的关系集合进行向量融合。在此基础上,通过联合表示解码器为候选答案打分,以筛选出问题的答案。实验结果表明,该模型在三元组分类和多跳问答基准数据集上均能取得良好的测试结果,准确率优于GraftNet、VRN等模型。  相似文献   

6.
在各大知识推理应用场景下,知识图谱中时序的缺失、知识图谱构建时实体关系的不完善,已然成为研究者们亟需解决的问题。为此,构造了一种融合时序信息与小样本关系的知识图谱推理模型,该模型将知识图谱的三元组表示扩展到含有时序信息的四元组表示,并通过时序信息来提高推理路径的准确性。此外,通过元学习从高频关系中学习元参数,并使用元参数适配小样本关系任务,提高模型在小样本关系中的泛化能力。实验表明,所提出的方法在Hits@1、Hits@3、Hits@10和MRR上均高于对比方法,并且均提高5%以上,表明所提出的方法可以完成知识图谱的推理,并且在小样本关系下具有较好的效果。  相似文献   

7.
在知识图谱的知识表示学习中,绝大多数方法都是将知识图谱中实体和关系映射到低维的连续向量空间中,但数据的稀疏和信息的不足仍会导致实体和关系语义表示的不完整性.针对这个问题,提出基于图上下文的知识表示学习模型(Context_RL).将知识图谱中实体和关系的上下文信息作为可靠数据来源和输入.通过计算实体和关系的语义相似度,将图上下文信息融入向量表示中,在语义的层面上提高了知识图谱表示学习的能力.通过实体预测和三元组分类实验,在有关数据集上,Context_RL的实验结果比其他模型更好.  相似文献   

8.
知识图谱在很多人工智能领域发挥着越来越重要的作用。知识图谱表示学习旨在将三元组中的实体和关系映射到低维稠密的向量空间。TransE、TransH和TransR等基于翻译操作的表示学习方法,只考虑了知识图谱的三元组信息孤立的学习表示,未能有效利用实体描述、实体类型等重要信息,从而不能很好地处理一对多、多对多等复杂关系。针对这些问题,该文提出了一种融合实体描述及类型的知识图谱表示学习方法。首先,利用Doc2Vec模型得到全部实体描述信息的嵌入;其次,对实体的层次类型信息进行表示,得到类型的映射矩阵,结合Trans模型的三元组嵌入,得到实体类型信息的表示;最后,对三元组嵌入、实体描述嵌入及实体类型嵌入进行连接操作,得到最终实体嵌入的表示,通过优化损失函数训练模型,在真实数据集上分别通过链接预测和三元组分类两个评测任务进行效果评估,实验结果表明新方法优于TransE、TransR、DKRL、SimplE等主流模型。  相似文献   

9.
表示学习在知识图谱推理中有着重要的研究价值,将知识库中的实体和关系用连续低维向量进行表示,可实现知识的可计算。基于向量投影距离的知识表示学习模型在面对复杂关系时有较好的知识表达能力,但在处理一对一简单关系时容易受到无关信息的干扰,并且在一对多、多对一和多对多等复杂关系上存在性能提升空间。为此,文中提出了一个基于改进向量投影距离的知识表示学习模型SProjE,该模型引入自适应度量方法,降低了噪声信息的影响。在此基础上,通过进一步优化损失函数来提高复杂关系三元组的损失权重。该模型适用于大规模知识图谱的表示学习任务。最后,在标准知识图谱数据集WN18和FB15K上分析和验证了所提方法的有效性,基于链路预测任务的评测实验结果表明,相较于现有的模型和方法,SProjE在各项性能指标上均取得了明显的进步。  相似文献   

10.
知识图谱表示学习将实体和关系映射到一个连续的低维空间.传统学习方法是从结构化的三元组学习知识表示,忽略了三元组之外与实体相关的丰富多源信息.针对该问题,提出一种将实体概念描述和图像特征与事实三元组相结合的知识图谱表示学习模型DIRL.首先,利用BERT模型进行实体概念描述的语义表示;其次,使用CNN编码器对图像总体特征进行提取,然后通过基于注意力的方法表示图像特征;最后,将基于概念描述的表示和基于图像特征的表示与翻译模型TransR结合起来进行知识图谱表示学习.通过实验验证,DIRL模型优于现有方法,提高了多源信息知识图谱表示的有效性.  相似文献   

11.
毕鑫  聂豪杰  赵相国  袁野  王国仁 《软件学报》2023,34(10):4565-4583
知识图谱问答任务通过问题分析与知识图谱推理,将问题的精准答案返回给用户,现已被广泛应用于智能搜索、个性化推荐等智慧信息服务中.考虑到关系监督学习方法人工标注的高昂代价,学者们开始采用强化学习等弱监督学习方法设计知识图谱问答模型.然而,面对带有约束的复杂问题,现有方法面临两大挑战:(1)多跳长路径推理导致奖励稀疏与延迟;(2)难以处理约束问题推理路径分支.针对上述挑战,设计了融合约束信息的奖励函数,能够解决弱监督学习面临的奖励稀疏与延迟问题;设计了基于强化学习的约束路径推理模型COPAR,提出了基于注意力机制的动作选择策略与基于约束的实体选择策略,能够依据问题约束信息选择关系及实体,缩减推理搜索空间,解决了推理路径分支问题.此外,提出了歧义约束处理策略,有效解决了推理路径歧义问题.采用知识图谱问答基准数据集对COPAR的性能进行了验证和对比.实验结果表明:与现有先进方法相比,在多跳数据集上性能相对提升了2%-7%,在约束数据集上性能均优于对比模型,准确率提升7.8%以上.  相似文献   

12.
在知识图谱中,实体的文本描述信息、实体的层次类型信息和图的拓扑结构信息中隐藏着丰富的内容,它们可以形成对原始三元组的有效补充,帮助提高知识图谱各种任务的效果.为了充分利用这些多源异质信息,首先通过一维卷积神经网络嵌入文本描述信息,然后根据实体的层次类型信息构建投影矩阵,将三元组中的实体向量和实体的描述向量映射到特定的关...  相似文献   

13.
Multi-hop Knowledge Base Question Answering (KBQA) aims to predict answers that require multi-hop reasoning from the topic entity in the question over the Knowledge Base (KB). Relation extraction is a core step in KBQA, which extracts the relation path from the topic entity to the answer entity. Compared with single-hop questions, multi-hop ones have more complex syntactic structures to understand, and multi-hop relation paths lead to a larger search space, which makes it much more challenging to extract the correct relation paths. To tackle the above challenges, most existing relation extraction approaches focus on the semantic similarity between questions and relation paths. However, those approaches only consider the word semantics of the relation names but ignore the graph semantics inside the knowledge base. As a result, their generalization ability relying on the naming rules of the relations, making it more difficult to generalize over large knowledge bases.To address the current limitations and take advantage of the graph semantics of relations, we propose a novel translational embedding-based relation extractor that utilizes pretrained embeddings from TransE. In particular, we treat the multi-hop relation path as a translation from the first relation to the last one in the semantic space of TransE. Then we map the question into this space under the supervision of the path embeddings. To take full advantage of the pretrained graph semantics in TransE, we propose a KBQA framework that leverages pretrained relation semantics in relation extraction and pretrained entity semantics in answer selection. Our approach achieves state-of-the-art performance on two benchmark datasets, WebQuestionSP and MetaQA, demonstrating its effectiveness on the multi-hop KBQA task.  相似文献   

14.
孙亚茹  杨莹  王永剑 《计算机工程》2022,48(10):116-122
解决多源知识对齐和知识冗余问题是在开放数据域自动构建知识图谱的关键。建立一种融合知信学习与深度学习的知识图谱自动构建模型。分析图卷积神经网络(GCN)模型与知信学习之间的理论联系,以先验知识与深度学习相结合的方式构建实体语义联合空间,将先验知识对模型的干预形式化,并利用自动编码器实现一个细粒度的实体对齐和关系抽取模型。同时,采用GCN与多头注意力相结合的方式,缓解因结构数据中多跳推理造成实体依赖信息丢失的影响。在开源数据集SemEval、FB15k和收集整理的MD数据集上的实验结果表明,该模型针对关系抽取、实体对齐和三元组抽取任务的F1值分别达到89.5%、86.6%和84.2%,较BERT-Softmax模型分别提升了0.3、2.4和0.3个百分点,具有更好的信息学习能力。  相似文献   

15.
知识图谱问答是自然语言处理领域的研究热点之一,近年来受到广泛的关注。知识图谱问答面临需要结合多条三元组进行推理的多跳问题以及知识图谱不完整等挑战,为解决这些问题,提出了一种融合知识表示学习的双向注意力模型(Bidirectional Attention model combining Knowledge Representation,KR-BAT)。引入知识表示学习以提高模型全局建模能力,应对知识图谱不完整的情况;使用双向注意力模型捕捉候选答案和问题间丰富的交互信息,经过分析推理给出答案。在MetaQA数据集上进行了实验,对比VRN、KV-MemNN、GraftNet等基准模型,在完整知识图谱上达到了非常有竞争力的性能,在不完整知识图谱上大幅度优于基准模型。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号