共查询到17条相似文献,搜索用时 125 毫秒
1.
基于DRT理论的汉语省略恢复研究 总被引:1,自引:0,他引:1
研究汉语语篇特性时,省略是其一个重点。该文尝试从语篇层次对汉语的省略进行恢复,提出一个初步的省略恢复模型。该模型针对语法空位和可能的语义空位,从上下文中选取合适的个体来填补。 相似文献
2.
研究汉语语篇特性时,省略是其一个重点。简要阐述了汉语省略的基本概念,介绍了通过三个平面理论进行的基于领域的省略恢复研究。提出了实现自然语言的真实理解的目标,分析探讨了它所面临的主要困难。提出了基于规则推理的知识库系统构建方案,同时在知识获取这一瓶颈问题中引入自然语言理解技术来进行专家经验性知识的自动获取。构建的省略恢复模型已被运用在领域自然语言理解中,结果表明其在汉语正式体省略恢复中具有一定优越性。 相似文献
3.
研究汉语语篇特性时,省略是其一个重点.简要阐述了汉语省略的基本概念,介绍了通过三个平面理论进行的基于领域的省略恢复研究.提出了实现自然语言的真实理解的目标,分析探讨了它所面临的主要困难.提出了基于规则推理的知识库系统构建方案,同时在知识获取这一瓶颈问题中引入自然语言理解技术来进行专家经验性知识的自动获取.构建的省略恢复模型已被运用在领域自然语言理解中,结果表明其在汉语正式体省略恢复中具有一定优越性. 相似文献
4.
汉语叙述文中的小句前部省略现象初析 总被引:3,自引:0,他引:3
汉语篇章中省略的现象十分常见。大多数的省略发生在句子的前部, 本文中称为前部省略。本文从这一现象出发, 提出了汉语叙述文基于前部省略的树形结构, 称作参照树, 分析了参照树的某些形式规律和语义规律。这一工作的目标是为用计算机处理汉语篇章提供形式化模型和算法设计的依据。目前的结果是初步的和粗糙的, 但已经展示出了一系列需要在计算语言学范围内加以深入研究的课题。 相似文献
5.
6.
语义块是句子的语义构成单位,句子内发生的省略现象可以归结为语义块的省略。在句类分析的基础上,从小句间语义块共享关系的角度分析语义块中人名和机构名称的省略。将省略现象分为语义块整块共享形成的省略和语义块部分共享形成的省略,分析了两种情况的特点,并给出了相应的处理算法。测试表明,该算法对于两种省略均有很好的处理效果。 相似文献
7.
8.
基于自然语言计算模型的汉语理论解系统 总被引:4,自引:0,他引:4
本文首先给出了一种自然语言计算模型,该模型把自然语言交流过程划分为三个层次:语言形式,表层语义和深层语义,从而将自然语言理解抽象为一个复合函数UP。依据这个模型,我们设计了一个汉语理解系统,这个系统具有良好的扩展性和可移植性,该系统采用汉语语义结构文法来分析汉语句子,反语法分析和语义分析有机地结合在一卢。文中形式定义了词语的深层语义以及深层语义的基本运算,给出了分析器,理解器以及生成器的算法。 相似文献
9.
基于句间关系的汉语语义块省略恢复 总被引:2,自引:0,他引:2
语义块是句子的语义构成单位,句子内发生的省略现象可以归结为语义块的省略。该文在句类分析的基础上,从小句间语义块共享关系的角度分析语义块的省略。将语义块的省略分为语义块整块共享形成的省略和语义块部分共享形成的省略,分析了两种情况的特点,并给出了相应的处理算法。测试表明,该算法对于两种省略均有很好的处理效果。 相似文献
10.
阅读理解中否定是一种复杂的语言现象,其往往会反转情感或态度的极性。因此,正确分析否定语义对语篇理解具有重要意义。现有否定语义分析方法存在两个问题:第一,研究的否定词较少达不到应用目的;第二,目前汉语否定语义标注只是标注整个句子,这无法明确否定语义。针对该问题提出基于汉语框架语义知识库(Chinese FrameNet)进行否定语义角色标注方法。在框架语义学理论指导下结合汉语否定语义特征对已由FrameNet继承的否定框架重新构建;为了解决捕捉长距离信息以及句法特征问题,提出一种基于Hybrid Attention机制的BiLSTMCRF语义角色标注模型,其中,Hybrid Attention机制层将局部注意与全局注意结合准确表示句子中的否定语义,BiLSTM网络层自动学习并提取语句上下文信息,CRF层预测最优否定语义角色标签。经过比对验证,该模型能够有效提取出含有否定语义信息,在否定语义框架数据集上F1值达到89.82%。 相似文献
11.
12.
现有的文本语义匹配方法大多基于简单的注意力机制进行交互,较少考虑文本自身结构信息和文本之间原始信息的的交互。针对2个中文文本的语义匹配问题,构建一个多角度信息交互的文本匹配模型MAII。分别从颗粒、局部、全局3个角度计算2个文本深层次的语义交互矩阵,同时考虑语序信息之间和结构信息之间的交互以及文本内部的依赖关系,从而得到含有丰富信息的语义向量,并通过语义推理计算出两文本之间的语义匹配度。实验结果表明,相比在英文数据集上表现良好的DSSM、ESIM和DIIN模型,MAII模型在CCKS 2018问句匹配大赛的中文数据集上达到77.77%的准确率,表现出更好的匹配性能。 相似文献
13.
14.
语义相似度计算旨在计算文本之间在语义层面的相似程度,是自然语言处理中一项重要的任务。针对现有的计算方法不能充分表示句子的语义特征的问题,提出基于Transformer编码器的语义特征抽取的模型TEAM,利用Transformer模型的上下文语义编码能力充分提取句子内的语义信息,对句子进行深层语义编码。此外,通过引入交互注意力机制,在编码两个句子时利用交互注意力机制提取两个句子之间关联的相似特征,使模型更擅长捕捉句子内部重要的语义信息,提高了模型对语义的理解和泛化能力。实验结果表明,该模型在英文和中文的语义相似度计算任务上能够提高结果的准确性,较已有方法表现出更好的效果。 相似文献
15.
省略现象在对话中十分普遍,它的存在导致了语句成分的缺失.问答系统往往不能正确理解这些缺省的表述,这样就会产生错误的问答结果,所以,省略恢复在问答系统中是十分必要的.省略恢复通常分为零代词类别恢复、零代词指代消解2个步骤,已有工作主要是将二者顺序执行,因此会造成错误的累加.为了克服上述问题,提出了1种零代词类别恢复和零代词指代消解联合模型(joint model)的方法,旨在通过联合模型融合省略恢复的2个步骤,进而提高恢复效果.实验结果表明,相比较已有的方法,引入联合模型后,省略恢复的性能得到了显著的提升. 相似文献
16.
Udo Hahn 《国际智能系统杂志》1989,4(3):345-393
Semantically driven natural language parsers have found wide-spread application as a text processing methodology for knowledge-based information retrieval systems. It is argued that this parsing technique particularly corresponds to the requirements inherent to large-scale text analysis. Unfortunately, this approach suffers from several shortcomings which demand a thorough reformulation of its paradigm. Incorporating principles from conceptual analysis and word expert parsing in a model of lexically distributed text parsing, the focus of the modifications proposed in this article, is on a clean declarative separation of linguistio and other knowledge representation levels, abstraction mechanisms leading to a small collection of specification primitives for the parser, and an attempt to incorporate linguistic generalizations and modularization principles into the design of a semantic text grammar. A sample parse illustrates the operation and linguistic coverage of a lexically distributed text parser based on these theoretical considerations with respect to the semantic analysis of noun groups, simple assertional sentences, nominal anaphora, and textual ellipsis. 相似文献
17.
针对现有中文短文本分类算法通常存在特征稀疏、用词不规范和数据海量等问题,提出一种基于Transformer的双向编码器表示(BERT)的中文短文本分类算法,使用BERT预训练语言模型对短文本进行句子层面的特征向量表示,并将获得的特征向量输入Softmax回归模型进行训练与分类。实验结果表明,随着搜狐新闻文本数据量的增加,该算法在测试集上的整体F1值最高达到93%,相比基于TextCNN模型的短文本分类算法提升6个百分点,说明其能有效表示句子层面的语义信息,具有更好的中文短文本分类效果。 相似文献