首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 140 毫秒
1.
为了强化文本蕴含系统深层语义分析与推理能力,该文提出了基于事件语义特征的中文文本蕴含识别方法。该方法基于事件标注语料生成事件图,将文本间的蕴含关系转化为事件图间的蕴含关系;利用最大公共子图的事件图相似度算法计算事件语义特征,与统计特征、词汇语义特征和句法特征一起使用支持向量机进行分类,得到初步实验结果,再经过基于事件语义规则集合的修正处理得到最后的识别结果。实验结果表明基于事件语义特征的中文文本蕴含识别方法可以更有效地对中文文本蕴含关系进行识别。  相似文献   

2.
事件识别是事件抽取的子内容,其主要任务是找出文本中的事件触发词。针对现有的事件识别方法对单一特征的利用还不够充分的问题,通过构建包含正负特征的触发词表,提出一种基于正负加权的事件识别方法。定义一种关联词特征,该特征对事件识别有较好的效果;根据单一特征所属的词是否为触发词将特征分为正特征或负特征,并将正负特征结合起来进行触发词识别,提升单一特征在事件识别时的作用。在此基础上,将正负关联词特征、正负词性特征以及正负依存关系特征结合起来进行触发词识别,进一步提升事件识别效果。实验结果表明,基于正负加权的事件识别方法得到了比较理想的效果。  相似文献   

3.
基于依存分析的事件识别   总被引:3,自引:1,他引:2  
事件抽取是信息抽取的重要组成部分,事件识别是事件抽取的基础,事件识别的效果直接影响了事件抽取的结果.基于机器学习的方法识别事件需要从词汇中发掘更多的特征.针对当前事件识别方法中存在的不足,提出了一种基于依存分析的事件识别方法.用依存分析发掘触发词与其它词之间的句法关系,以此为特征在SVM分类器上对事件进行分类,最终实现事件识别.实验表明,基于依存分析的事件识别优于传统的事件识别方法,而融合多特征的事件识别F值可提高到69.3%.  相似文献   

4.
为了避免基于传统机器学习的中文文本蕴含识别方法需要人工筛选大量特征以及使用多种自然语言处理工具造成的错误累计问题,该文提出了基于CNN与双向LSTM的中文文本蕴含识别方法。该方法使用CNN与双向LSTM分别对句子进行编码,自动提取相关特征,然后使用全连接层进行分类得到初步的识别结果,最后使用语义规则对网络识别结果进行修正,得到最终的蕴含识别结果。在2014年RITE-VAL评测任务的数据集上MacroF1结果为61.74%,超过评测第一名的结果61.51%。实验结果表明,该方法对于中文文本蕴含识别是有效的。  相似文献   

5.
针对空中移动目标识别问题,提出了一种基于动态行为学习的识别方法。首先,从数据源中提取目标要素,经过标注形成目标数据特征集;其次,基于应用场景进行特征组合,形成特征模型要素;然后,基于深度学习算法进行模型训练,得到评估最优的模型参数;最后,利用训练后的模型进行目标识别处理。通过数值仿真验证,该方法能够有效地识别无业务规则的目标身份。  相似文献   

6.
面对多标签的大数据集,传统的分类识别方法识别质量不高,现提出基于分类规则挖掘的数据多标记特征分层识别方法.利用改进后的LLE(局部线性嵌入)方法进行数据降维处理,搜索数据特征,并对数据多标记特征选择,构成特征子集,根据特征子集,利用分类规则挖掘方法构建一个分类识别模型,实现数据多标记特征分层识别.结果 表明,与传统方法相比,所研究方法识别下,汉明损失度最小,数据多标记特征分层识别准确度最大,说明上述方法的识别质量较高,达到了研究的预期目标,为数据利用和挖掘提供了参考和借鉴.  相似文献   

7.
根据Zernike矩具有正交性的特点,提出了一种基于Zernike矩和改进BP神经网络的流型识别新方法.该方法利用高速摄影仪获取水平管道内气液两相流的流动图像,并从图像中提取基于zernike矩的统计描述作为特征向量;同时,以此特征向量作为流型样本对改进BP神经网络进行训练,从而实现了对流动图像的流型智能化识别.结果表明,该方法能很好地识别七种典型流型,且其应用Zernike矩特征的分类精度明显高于用规则矩和Hu矩作为特征的识别方法,从而证明了基于Zernike矩的气液两相流流型识别方法的有效性.  相似文献   

8.
张真  李宁  田英爱 《计算机工程》2020,46(1):60-66,73
流式文档结构识别对于排版格式自动优化和信息提取等具有重要作用。基于规则的结构识别方法泛化能力较差,而基于机器学习的方法未考虑文档单元之间的长距离依赖关系,识别准确率较低。针对该问题,提出一种基于双向长短期时间记忆(LSTM)网络的流式文档结构识别方法。从文档单元的格式、内容与语义3个方面筛选关键特征,并将文档结构识别看作序列标注问题,使用双向LSTM神经网络构建识别模型,以实现对18种逻辑标签的识别。实验结果表明,该方法能够对文档结构进行有效识别,其识别效果优于方正飞翔软件。  相似文献   

9.
用户意图识别是基于用户对话用语识别用户的真实对话意图,是人机对话研究中的一项关键任务。针对现有用户意图识别方法的不足,提出融合敏感词规则和字符级RCNN模型的用户意图识别方法。构建敏感句子与敏感词词典,并通过规则及相似度匹配策略对特征明显的对话进行意图识别。针对类别特征不明显的对话提出深层语义分类模型,该模型以单字符串作为输入序列,利用RCNN模型构建意图分类框架,既可以避免分词结果不准确带来的错误传导问题,同时利用字符的分布向量表示方法还可以获取句子的深层语义信息。实验结果表明,该方法在两个数据集上都取得了较好的结果,明显优于传统的意图识别方法。  相似文献   

10.
提出了一种将局部特征识别与全局特征识别相结合的人脸识别方法.该算法首先提取人脸的局部特征进行识别,然后提取未识别图像的全局特征进行识别.基于ORL人脸数据库的实验证明了该算法的识别性能要优于单一特征识别方法.  相似文献   

11.
事件可信度表示文本中事件的真实程度,描述了事件是否是一个事实,或是一种可能性,又或者是一种不可能的情况。事件可信度识别是问答系统、篇章理解等诸多相关任务的重要基础。目前,事件可信度识别的研究基本上还停留在句子级,很少涉及篇章级。因此,文中提出了一个基于门控卷积网络的篇章级事件可信度识别方法DEFI(Document-level Event Factuality Identification)。该方法首先使用门控卷积网络从句子和句法路径中抽取篇章中事件的语义和句法信息,然后通过自注意力(Self-Attention)层获取每个序列相对于自身更重要的整体信息的特征表示,从而识别出篇章级事件可信度。在中英文语料上的实验显示,与基准系统相比,DEFI的宏平均F1值和微平均F1值均得到了提高,其中在中英文语料上宏平均F1值分别提高了2.3%和4.4%,微平均F1值分别提升了2.0%和2.8%;同时,所提方法在训练速度上也提升了3倍。  相似文献   

12.
事件事实性表达事件是否是事实的确定性程度,在文档中表现这一属性的是特定的句子结构和词汇。该文在充分研究影响中文事件事实性的句子成分的基础上,提出了五类事件事实性相关信息并给出了具体的标注规则。最后,在ACE 2005中文语料库的基础上完成了Movement事件的事实性标注,并对标注完成的语料库进行了相关的统计和分析,为后续研究提供基础。  相似文献   

13.
事件可信度表示文本中事件的真实状况,描述了事件是否是一个事实,或是一种可能还是不可能的情形,是自然语言处理中一个重要的语义任务。目前,大多数关于事件可信度分析的方法都集中在句子级,很少涉及篇章级。该文基于卷积神经网络,结合篇章中的句子级特征(包括句子的语义、语法以及线索词特征表示),使用对抗训练来识别篇章可信度。在中英文数据集上的结果显示,该文方法与最新的实验结果相比,微平均F1值分别提高了3.51%和6.02%,宏平均F1值分别提升了4.63%和9.97%。同时,该方法在训练速度上也提高了4倍。  相似文献   

14.
在当前互联网时代,大量新领域下的非结构文本数据中蕴含了海量信息.面向新领域的事件抽取方法研究能快速地构建领域知识库,用于支撑基于知识的下游应用.但现有事件抽取系统的领域限定性强,在新领域中从零构建会极度依赖事件体系和标注数据的质量及规模,需要大量人力和专家知识来定制模板和标注语料.而且数据集中常见在相同的上下文中出现多...  相似文献   

15.
16.
This paper presents a digital storytelling approach that generates automatic animations for time‐varying data visualization. Our approach simulates the composition and transition of storytelling techniques and synthesizes animations to describe various event features. Specifically, we analyze information related to a given event and abstract it as an event graph, which represents data features as nodes and event relationships as links. This graph embeds a tree‐like hierarchical structure which encodes data features at different scales. Next, narrative structures are built by exploring starting nodes and suitable search strategies in this graph. Different stages of narrative structures are considered in our automatic rendering parameter decision process to generate animations as digital stories. We integrate this animation generation approach into an interactive exploration process of time‐varying data, so that more comprehensive information can be provided in a timely fashion. We demonstrate with a storm surge application that our approach allows semantic visualization of time‐varying data and easy animation generation for users without special knowledge about the underlying visualization techniques.  相似文献   

17.
生物医学事件触发词识别研究   总被引:1,自引:0,他引:1  
触发词的识别是生物医学事件抽取的一个关键步骤。传统的采用字典/规则的方法过于依赖字典或规则的建立,一般的机器学习方法则需设计复杂的特征,而且大多数系统采用串行的方法会导致错误的传播。因而采用了基于神经网络的事件触发词识别和事件类型判别联合结构预测模型,既简化人工干预,又减少错误传播。实验结果表明提出的方法取得了很好的性能,为生物事件的抽取奠定了可靠的基础。  相似文献   

18.
陈钊  李嘉 《计算机工程》2011,37(20):261-263
根据林产品贸易文本信息推送中信息结构化存储的需要,结合语义识别的基本原理和基于规则的信息抽取方法,提出一种基于规则的林产品贸易文本信息抽取方法,利用林产品贸易文本信息的特征,定义林产品贸易文本信息的文本层次识别规则,采用创建数据库和数据表匹配识别规则,给出识别规则匹配的正则表达式和文本内容截取识别规则,以抽取需要的特定事实信息,并以一种结构化的形式存储于数据库中。通过对实际林产品贸易网站的文本信息结构化抽取,证明该研究在林产品贸易信息推送中具有较好的应用价值。  相似文献   

19.
This research focuses on the identification of social roles and an investigation of their influence in online context. Relying on a systemic approach for role conceptualization, we investigate member's activity, shared content and position in the network within a consumer to consumer social media‐based community (SMC) around a product. This investigation led to the identification of ten core roles, based on three key elements: object of interest (product, practice, and community), main contribution type (sharing information and seeking information), individual orientation (factual, emotional). We propose an explanation about how these roles, through their positioning, participate in the community dynamics and how they contribute to the creation and diffusion of cookery as a social practice, shaping the periphery around this practice.  相似文献   

20.
The Web became the central medium for valuable sources of information fusion applications. However, such user-generated resources are often plagued by inaccuracies and misinformation as a result of the inherent openness and uncertainty of the Web. While finding objective data is non-trivial, assessing their credibility with a high confidence is even harder due to the conflicts of information between Web sources. In this work, we consider the novel setting of fusing factual data from the Web with a credibility guarantee and maximal recall. The ultimate goal is that not only the information should be extracted as much as possible but also its credibility must satisfy a threshold requirement. To this end, we formulate the problem of instantiating a maximal set of factual information such that its precision is larger than a pre-defined threshold. Our proposed approach is a learning process to optimize the parameters of a probabilistic model that captures the relationships between data sources, their contents, and the underlying factual information. The model automatically searches for best parameters without pre-trained data. Upon convergence, the parameters are used to instantiate as much as factual information with a precision guarantee. Our evaluations of real-world datasets show that our approach outperforms the baselines up to 6 times.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号