首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
面向知识库的问答(Question answering over knowledge base, KBQA)是问答系统的重要组成. 近些年, 随着以深度学习为代表的表示学习技术在多个领域的成功应用, 许多研究者开始着手研究基于表示学习的知识库问答技术. 其基本假设是把知识库问答看做是一个语义匹配的过程. 通过表示学习知识库以及用户问题的语义表示, 将知识库中的实体、关系以及问句文本转换为一个低维语义空间中的数值向量, 在此基础上, 利用数值计算, 直接匹配与用户问句语义最相似的答案. 从目前的结果看, 基于表示学习的知识库问答系统在性能上已经超过传统知识库问答方法. 本文将对现有基于表示学习的知识库问答的研究进展进行综述, 包括知识库表示学习和问句(文本)表示学习的代表性工作, 同时对于其中存在难点以及仍存在的研究问题进行分析和讨论.  相似文献   

2.
基于知识库的问答系统旨在通过解析用户的自然语言问句直接在知识库中提取出答案.目前,大多数知识库问答模型都遵循实体检测和关系识别这两个步骤,但是此类方法忽略了知识库本身所蕴含的结构信息以及这两个步骤之间的联系.文中提出了一种基于知识表示的联合问答模型.首先应用知识表示模型将知识库中的实体与关系映射到低维的向量空间,然后通过神经网络将问句也嵌入相同的向量空间,同时检测出问句中的实体,并在此向量空间内度量知识库三元组与问句的语义相似度,从而实现将知识库嵌入和多任务学习引入知识库问答.实验结果表明,所提模型可以极大地提高训练速度,在实体检测和关系识别任务上的准确率达到了主流水平,证明了知识库嵌入及多任务学习可以提升知识库问答任务的性能.  相似文献   

3.
基于知识库的问答是自然语言处理研究热点之一,在针对知识库问答的方法中,传统的字向量和词向量无法很好地表示问句上下文的语义信息、循环神经网络并行计算能力不足和没有考虑句子中周围词对当前词的影响、卷积神经网络不考虑字在问句中位置信息等问题。为了解决上述问题,论文提出了使用BERT模型结合循环神经网络和卷积神经网络模型的研究方法。在开源SimpleQuestion数据集上使用文中提出的方法,可使问句命名实体识别任务中f1-score提升了3%,问句关系分类任务准确率提升1%,最终答案生成任务准确率提升3.5%。实验表明,使用BERT模型可以增强这些传统模型的效果。  相似文献   

4.
刘铄  周刚  李珠峰  吴皓 《计算机科学》2023,(11):227-233
知识库问答通常包含3个子任务:中心实体识别、实体链接和关系检测。鉴于当前知识库中通常包含数量巨大的实体和关系,为了进一步解决基于复杂规则和倒排索引在知识库中进行检索带来的搜索空间局限性、召回率偏低和难以兼顾语义信息等问题,提出了一种构造知识库问答检索框架的新方法。该框架包含文本召回和哈希召回两个主要模块,通过二次召回设计构成传统文本检索与保留语义信息的哈希码检索的级联检索模式。所提方法在大规模知识库问答测评基准KgCLUE和NLPCC2016提供的数据集上进行实验,结果表明:基于深度哈希学习的知识库问答检索框架可以高效地获取高质量的候选项,在适应大规模知识库的同时能够节省一定的时间开销。  相似文献   

5.
知识库(或知识图谱)作为一种对现实世界的有效表征模式,引起了学术界和工业界广泛关注.近年来,随着大规模知识库的出现,知识库问答技术作为知识库的基础应用技术同样备受关注.基于语义解析的代表方法通过对查询句的解析将问题转化为图上的答案检索,但知识库中往往存在缺失的链接,导致上述过程无法顺利开展;基于神经推理的代表模型通过对问题进行编码来进行实体相似度排序,但其无法解决动态场景下的实体冷启动问题.针对上述问题,提出了一种融合子图结构的神经推理式知识库问答方法,实现了在问答推理过程中兼顾实体的语义与结构信息,从而进行更充分的推理.首先,通过预训练模型RoBERTa将问句转换为包含语义的向量;其次,根据问句中的实体构建相应的问答子图,并利用图神经网络提取子图的结构信息;再次,基于背景知识库进行实体表示预训练,并与对应的结构表示进行融合;最后,根据融合后的向量对候选答案进行评分,将评分最高的实体作为答案.在WebQuestionsSP数据集上进行了对比测试,实验结果表明,提出的模型优于其他基准模型.  相似文献   

6.
知识库问答实体链接任务需要将问句内容精准链接到知识库中实体.当前方法大多难以兼顾链接实体的召回率和精确率,并且仅能根据文本信息对实体进行区分筛选.因此,文中在合并子步骤的基础上,提出融合多维度特征的知识库问答实体链接模型(MDIIEL).通过表示学习方法,将文本符号、实体和问句类型、实体在知识库中语义结构表达等信息整合并引至实体链接任务中,加强对相似实体的区分,在提高准确率的同时降低候选集的大小.实验表明,MDIIEL模型在实体链接任务性能上具有整体性提升,在大部分指标上取得较优的链接结果.  相似文献   

7.
针对现有的中文开放领域知识库问答系统缺乏对多关系问答的支持,将知识库问答过程分为实体识别、实体关系抽取和答案检索三个步骤,重点讨论了实体关系抽取的实现方法。在实体关系抽取阶段,提出一种基于规则的关系词提取方法抽取问句中的关系词,然后将关系词与知识库中的谓词进行相似度计算,得到关系集合,结合实体识别的结果,将问句转换为具有语义信息的三元组形式。实验结果表明,该方法可以支持多关系问答,并且具有较高的平均F1分数。  相似文献   

8.
知识表示学习在自然语言处理领域获得了广泛关注,尤其在实体链指、关系抽取及自动问答等任务上表现优异。然而,大部分已有的表示学习模型仅利用知识库中的结构信息,无法很好地处理新的实体或关联事实极少的实体。为解决该问题,该文提出了引入实体描述信息的联合知识表示模型。该模型先利用卷积神经网络编码实体描述,然后利用注意力机制来选择文本中的有效信息,接着又引入位置向量作为补充信息,最后利用门机制联合结构和文本的向量,形成最终的联合表示。实验表明,该文的模型在链路预测和三元组分类任务上与目前最好的模型性能相近。  相似文献   

9.
近年来,知识库(Knowledge Base, KB)被广泛应用于问答(Question Answering, QA)任务中。给定自然语言问题,利用知识库为给定问题提供正确答案,被称为KBQA问题。然而,知识库本身可能是不完整的(例如,KB不包含问题的答案或问题中的一些实体和关系),这限制了现有KBQA模型的总体性能。为了解决这个问题,文中提出了一个新的模型,利用文本语料库信息提供额外信息来增强知识库覆盖率和背景信息以增强问题的表示。具体来说,该模型由3个模块组成,即实体和问题表征模块、文档和问题增强表征模块以及答案预测模块。实体和问题表征模块从检索到的知识库子图中学习实体的表示,然后通过融合种子实体信息更新问题表示;文档和问题增强表征模块尝试学习与给定问题相关文档的正确表示,然后通过融合文档信息进一步改进问题表示;最后,答案预测模块根据知识库实体表征、文档表征和更新的问题表征进行答案预测。利用所提方法在WebQuestionsSP数据集上进行了大量的实验,结果表明,与其他方法相比,所提方法可以获得更高的准确性。  相似文献   

10.
针对大多数简单知识库问答模型没有充分利用候选实体排序,并且往往忽略实体和关系之间依赖的问题,提出了基于实体排序和联合事实选择的方法。整个过程分为模式抽取、实体排序和联合事实选择三个步骤。首先,通过BILSTM-CRF算法对自然语言问题进行模式提取,将其划分为实体提及(mention)和问题模式(pattern)两部分;然后,同时利用subject(主题实体)和mention的字面和语义相似性对候选实体进行排序,抽取相关事实;最后,为了能在候选事实池中选择出最正确的实体—关系对,联合事实选择模型利用多级别编码增强整个过程。实验证明,该方法在simple questions dataset的准确率、召回率都有明显的提升。实验结果表明所提方法在知识库的简单问答上具有可行性。  相似文献   

11.
知识库问答依靠知识库推断答案,需要大量带标注信息的问答对,但构建大规模且精准的数据集不仅代价昂贵,还受领域等因素限制.为缓解数据标注问题,面向知识库的问题生成任务引起了研究者关注,该任务的特点是利用知识库三元组自动生成问题,但现有方法仅由一个三元组生成的问题过于简短,且缺乏多样性.为生成信息量丰富且多样化的问题,该文采...  相似文献   

12.
针对当前中文医疗领域高质量问答数据缺乏的问题,提出基于知识图谱与关键词注意机制的中文医疗问答匹配方法.首先,引入医学知识图谱,得到知识增强的句子特征.然后,加入关键词注意力机制,强调问题和答案句子之间的相互影响.在2个公开的中文医疗问答数据集cMedQA与webMedQA上的实验表明,当样本数据量较小时,文中方法的优势明显.消融实验也验证每个新增模块对文中方法的性能均有一定程度的提升.  相似文献   

13.
预训练语言模型的发展极大地推动了机器阅读理解任务的进步.为了充分利用预训练语言模型中的浅层特征,并进一步提升问答模型预测答案的准确性,提出了一种基于BERT的三阶段式问答模型.首先,基于BERT设计了预回答、再回答及答案调整三个阶段;然后,在预回答阶段将BERT嵌入层的输入视作浅层特征来进行答案预生成;接着,在再回答阶...  相似文献   

14.
伴随自然语言处理快速发展,自动问答系统(Question & Answer,QA)受到研究者的广泛关注。基于表格的自动问答(Table QA)实质是在给定自然语言形式的问题文本条件下,利用表格知识库信息进行查询推理得到答案的过程。从语义解析方法角度分析了基于表格知识库的问答模型、算法特点及其相关问题,同时结合人工智能技术的发展,重点探讨了表格自动问答技术的难点以及未来可能的挑战。  相似文献   

15.
知识库问答任务是自然语言处理领域中的研究热点之一,目前国内外学者对知识库问答方法的研究大多数是基于英文数据,基于中文数据的研究非常少。由于中文存在语言多变性、语法不明确性、语言歧义性等特点,导致很多英文知识库问答研究方法很难应用于中文数据。针对以上问题,该文提出一种基于信息匹配的中文知识库问答研究方法,探索方法在中文数据上的效果。首先对问题进行主语实体识别和属性值识别;其次将问句中的实体链接到知识库中的实体,使用逻辑回归对候选实体进行筛选;再次抽取其两跳内关系作为候选查询路径,将候选查询路径和问题进行相似度匹配得到匹配度最高的候选路径;最后使用实体拼接来得到多实体情况的查询路径,查询知识库获得最终答案。该方法在CCKS2019 CKBQA测试集上的F值达到了75.6%。  相似文献   

16.
Recently, large pretrained language models (PLMs) have led a revolution in the information retrieval community. In most PLMs-based retrieval frameworks, the ranking performance broadly depends on the model structure and the semantic complexity of the input text. Sequence-to-sequence generative models for question answering or text generation have proven to be competitive, so we wonder whether these models can improve ranking effectiveness by enhancing input semantics. This article introduces SE-BERT, a semantically enhanced bidirectional encoder representation from transformers (BERT) based ranking framework that captures more semantic information by modifying the input text. SE-BERT utilizes a pretrained generative language model to summarize both sides of the candidate passage and concatenate them into a new input sequence, allowing BERT to acquire more semantic information within the constraints of the input sequence's length. Experimental results from two Text Retrieval Conference datasets demonstrate that our approach's effectiveness increasing as the length of the input text increases.  相似文献   

17.
面向知识库问答的关系检测旨在从知识库的候选关系中选出与自然语言问题最匹配的关系路径,从而检索得到问题的正确答案。针对现有关系检测方法中存在的语义信息丢失和注意力交互不充分的问题,提出了一种融合全局—局部特征的多粒度关系检测模型。该模型首先使用双向长短期记忆网络对问题和关系进行编码,从单词级和关系级多种粒度对关系建模;然后使用双向注意力机制实现问题和关系的注意力交互;最后通过聚合操作提取全局特征,通过词级交互提取局部特征,计算问题和候选关系的语义相似度。实验表明,该模型在SimpleQuestions和WebQuestionsSP数据集上分别取得了93.5%和84.13%的精确度,提升了关系检测的效果。  相似文献   

18.
针对中文医疗自动问答任务,为了捕捉问答句中重要的句法信息和语义信息,提出引入图卷积神经网络捕捉句法信息,并添加多注意力池化模块实现问答句的语序特征和句法特征联合学习的方法。在BERT模型学习问答句的高阶语义特征基础上,利用双向门控循环单元描述句子的全局语义特征,以及引入图卷积神经网络编码句子的语法结构信息,以与双向门控循环单元所获取的序列特征呈现互补关系;通过多注意力池化模块对问答对的不同语义空间上的编码向量进行两两交互,并着重突出问答对的共现特征;通过衡量问答对的匹配分数,找出最佳答案。实验结果表明,在cMedQA v1.0和cMedQA v2.0数据集上,相比于主流的深度学习方法,所提方法的ACC@1有所提高。实验证明引入图卷积神经网络和多注意力池化模块的集成算法能有效提升自动问答模型的性能。  相似文献   

19.
基于网络的中文问答系统及信息抽取算法研究   总被引:24,自引:3,他引:21  
问答系统(Question Answering System)能用准确、简洁的答案回答用户用自然语言提出的问题。目前多数问答系统利用大规模文本作为抽取答案的知识库,而网络上丰富的资源为问答系统提供了另外一种良好的知识来源,对于回答简短、基于事实的问题非常有效。本文对基于网络的问答系统研究现状作了简要的介绍,分析了网络信息的特点。我们提出了一种基于语句相似度计算的答案抽取方法,在此基础上实现了一个基于网络的中文问答系统。该系统只利用网络搜索引擎返回结果中的摘要部分作为答案抽取的资源,从而节省了下载、分析网络源文本的时间。实验结果表明该系统对人名、数量及时间类型的问题效果显著,对测试问题集的MRR值达到0.51。  相似文献   

20.
由于现在缺乏多语言教学中的主观题自动评分, 针对这一问题提出了一种基于孪生网络和BERT模型的主观题自动评分系统. 主观题的问题文本和答案文本通过自然语言预处理BERT模型得到文本的句向量, BERT模型已经在大规模多种语言的语料上经过训练, 得到的文本向量包含了丰富的上下文语义信息, 并且能处理多种语言信息. 然后把...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号