首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 0 毫秒
1.
Course dependence graph of subject can provide an important reference model for the automatic arrangement for subject teaching plan, effective online subject learning and subject resource recommendation. Nevertheless, the challenges of the course dependence graph on the automatic construction and the maintenance of its objectivity seriously restrict its popularity. Hence, this paper proposes an approach utilizing association semantic link model for automatically constructing course dependence graph. The proposed approach employs construction of the semantic link of fragment course information resources and the association mining method to build course dependence graph. The main task of the approach can be roughly divided into the extraction of semantic key terms, the knowledge representation of course semantic and subject semantic and constructing course dependence graph. The advantages of the proposed approach are that it promotes the automation of constructing course dependence graph, defending its objectivity and getting the service of the course dependence graph smarter. The experiments show that the proposed approach has rationality and validity.  相似文献   

2.
某项目平台中存在大量用户数据,由于数据的复杂性,采用传统的语义相关度计算方法无法准确获得所需要的用户信息.本文针对这个问题,对数据构建语义树,改进了现有的计算语义联系的方法,在原有的计算方法基础上,加入了上下文权重描述数据之间的语义联系.本文方法可以更好的对用户的查询请求进行概念扩充,从而找出相关数据,满足用户的检索需求.  相似文献   

3.
互联网上大量的主观评论性信息蕴含着巨大的商业价值,同时也促使了倾向性识别研究的兴起。句子倾向性识别是文本倾向性识别的基础,现有句子倾向性识别方法存在着识别效果不理想、模式抽取困难等问题。将情感词视为基因,在不同的语境下呈现出不同的性状,通过构建情感词语义倾向分析器,先确定情感词的静态显性,然后根据不同的语境确定情感词的动态显性,最后提出基于情感词语义加权的句子倾向性识别算法。实验结果显示,该方法提高了句子倾向性识别的判全率和判准率,是合理和有效的。  相似文献   

4.
为解决词义消歧问题,引入了语义相关度计算。研究并设计了词语相关度计算模型,即在充分考虑语义资源《知网》中概念间结构特点、概念信息量和概念释义的基础上,利用概念词与实例词间的搭配所表征的词语间强关联来进行词语相关度的计算。实验结果表明,该模型得到的语义相关度结果对于解决WSD问题提供了良好的支撑依据。  相似文献   

5.
针对室外大范围场景移动机器人建图中,激光雷达里程计位姿计算不准确导致SLAM (simultaneous localization and mapping)算法精度下降的问题,提出一种基于多传感信息融合的SLAM语义词袋优化算法MSW-SLAM(multi-sensor information fusion SLAM based on semantic word bags)。采用视觉惯性系统引入激光雷达原始观测数据,并通过滑动窗口实现了IMU (inertia measurement unit)量测、视觉特征和激光点云特征的多源数据联合非线性优化;最后算法利用视觉与激光雷达的语义词袋互补特性进行闭环优化,进一步提升了多传感器融合SLAM系统的全局定位和建图精度。实验结果显示,相比于传统的紧耦合双目视觉惯性里程计和激光雷达里程计定位,MSW-SLAM算法能够有效探测轨迹中的闭环信息,并实现高精度的全局位姿图优化,闭环检测后的点云地图具有良好的分辨率和全局一致性。  相似文献   

6.
软件测试是保证产品整体质量的重要手段。基于关联性的软件测试方法,在加强软件内在关联关系分析的基础上,建立模块之间及模块与测试用例之间的关联关系,并给出关联的表达和检测方法,有利于快速定位错误、缩小测试范围,减少重复测试的工作量,提高回归测试和维护的效率。  相似文献   

7.
张辉 《计算机工程与设计》2011,32(12):4291-4294
为提高在海量数据中的信息检索效率,分析了元数据目录服务技术的现状及其不足,通过引入语义关联技术,将语义关联的信息检索技术与网格信息服务技术有效结合,提出了一种改进的能有效提高检索效率的检索框架,并结合实例进行了描述.实验结果表明,该优化的语义关联查询方法是有效、可行的,能有效提高海量数据中信息检索的查准率和查全率.  相似文献   

8.
王庆  陈泽亚  郭静  陈晰  王晶华 《计算机应用》2015,35(6):1649-1653
针对专业领域中科技项目的关键词提取和项目词库建立的问题,提出了一种基于语义关系、利用共现矩阵建立项目关键词词库的方法。该方法在传统的基于共现矩阵提取关键词研究的基础上,综合考虑了关键词在文章中的位置、词性以及逆向文件频率(IDF)等因素,对传统算法进行改进。另外,给出一种利用共现矩阵建立关键词关联网络,并通过计算与语义基向量相似度识别热点关键词的方法。使用882篇电力项目数据进行仿真实验,实验结果表明改进后的方法能够有效对科技项目进行关键词提取,建立关键词关联网络,并在准确率、召回率以及平衡F分数(F1-score)等指标上明显优于基于多特征融合的中文文本关键词提取方法。  相似文献   

9.
陈鑫  王素格  廖健 《计算机应用》2016,36(2):424-427
针对微博中新情感词的识别问题,提出了一种基于词语相关度的微博新情感词自动识别方法。首先,对于分词软件把一个新词错分成几个词的问题,利用组合思想将相邻词进行合并作为新词的候选词;其次,为了充分利用词语上下文的语义信息,采用神经网络训练语料获得候选新词的空间表示向量;最后,利用已有的情感词典作为指导,融合基于词表集合的关联度排序和最大关联度排序算法,在候选词上筛选,获得最终的情感新词。在COAE2014(第六届中文倾向性分析评测)任务3语料上,提出的融合算法与点互信息(PMI)、增强互信息(EMI)、多词表达距离(MED)、新词语概率(NWP)以及基于词向量的新词识别方法相比,准确率至少提高了22%,说明该方法自动识别微博新情感词效果优于其他五种方法。  相似文献   

10.
分析和研究文本读者情绪有助于发现互联网的负面信息,是舆情监控的重要组成部分。考虑到引起读者不同情绪主要因素在于文本的语义内容,如何抽取文本语义特征因此成为一个重要问题。针对这一问题,提出首先使用word2vec模型对文本进行初始的语义表达;在此基础上结合各个情绪类别分别构建有代表性的语义词簇,进而采用一定准则筛选对类别判断有效的词簇,从而将传统的文本词向量表达改进为语义词簇上的向量表达;最后使用多标签分类方法进行情绪标签的学习和分类。实验结果表明,该方法相对于现有的代表性方法来说能够获得更好的精度和稳定性。  相似文献   

11.
基于中文分词的OWL—S/UDDI语义Web服务检索模型   总被引:2,自引:0,他引:2  
目前中文搜索引擎尚不能进行语义检索,经OWL-S语义扩展后的语义Web服务检索也未充分考虑中文词语之间无空格的特点.基于语义Web服务技术与中文分词技术,提出基于中文分词的OWL-S/UDDI语义Web服务检索模型.该模型对中文检索请求语句进行中文分词并附加语义,所生成的服务请求OWL-S文档与语义扩展UDDI中的OWL-S服务描述进行匹配,进而实现Web服务的动态查找与组合.实验结果表明,语义Web服务检索可提高Web服务发现的质量.  相似文献   

12.
提出了一种基于语义的观点倾向分析方法。按照文本结构特点,依据语义相近的原则,将文本分割为若干语义段,对语义段采用条件随机场模型进行主观内容提取和观点倾向识别,计算各个语义段的权值,确定文本的观点倾向。实验表明,与传统机器学习方法相比,该方法能有效提高文本观点倾向分析的准确率。  相似文献   

13.
针对现有中文报道关系检测的检测代价即误报率和丢失率较高的问题,在多向量空间模型基础上提取不同向量的要素(时间、地点、人物和内容)特征词组成关联词对,使用支持向量机(SVM)方法整合关联词对相似度和余弦相似度,从而提出了一种提取要素关联词对报道关系检测方法。所提方法补充表示了报道内容,为检测提供了更多的比较依据,识别代价降低了将近11%。实验结果验证了算法的有效性。  相似文献   

14.
网格环境下基于语义关联的信息检索   总被引:1,自引:1,他引:1  
张小娟  李华 《计算机应用》2009,29(6):1517-1526
为了满足网格环境中资源信息的大幅度增加对信息检索的性能越来越高的要求,对网格环境中的信息服务系统(MDS)进行了分析并指出其局限性,设计了网格环境下资源信息检索匹配算法,在MDS的发现系统中应用基于元数据语义关联的信息检索。实验实现了网格环境下基于所设计算法的信息检索,对目录式检索和语义关联检索进行了比较,证明了这种方法可以有效提高资源信息的检索效率。  相似文献   

15.
针对视频高层语义分析问题,文章结合足球比赛的领域知识,按照足球比赛转播,视频编辑的一般规律,根据足球比赛语义事件随机性的特点,选择特定的视频物理特征,应用 HMM (隐马尔科夫模型) 分析视频的语义结构,确定视频和HMM 模型中各元素的对应关系,构建一个基于HMM 的视频语义分析框架,并通过进行足球视频 HMM 参数的训练,得到视频各语义事件的 HMM 模型,达到视频语义自动分析的目的.  相似文献   

16.
In this paper, we propose an outlier pair detection method, called LSOutPair, which discovers the vast differences between link structure and semantic relationship. LSOutPair addresses three important challenges: (1) how can we measure the target object's link similarity among multi-typed objects and multi-typed relations? (2) how can we measure the semantic similarity using the short texts? (3) how can we find the objects’ maximum differences between link structure and semantic relationship? To tackle these challenges, LSOutPair applies three main techniques: (1) two matrices are used to store link similarity and semantic similarity, (2) a k-step index algorithm, which calculates the term weighting for each object, (3) applying the linear transformation of Frobenius norm to matrices can obtain the top-K outlier pairs. LSOutPair considers link and semantics in complex network simultaneously, which is a new attempt in data mining. Substantial experiments show that LSOutPair is very effective for outlier pair detection.  相似文献   

17.
针对互联网上的舆论信息传播速度快,对社会造成巨大影响这一问题,社会管理者应该进行及时的舆情分析,从而进行有效控制和引导,避免形成更大的社会影响和危害.为了从网络信息中分析网络舆情的发展态势,将文本情感分析技术应用于网络舆情研究.针对网络舆情的话题评论,采用语义模式和词汇情感倾向相结合的方法,并形成了一种判定算法,该算法比较全面地判定话题评论的情感倾向性,把握网络舆情的正面或负面导向性.实验结果表明了该方法的有效性和准确性.  相似文献   

18.
Word sense disambiguation (WSD) is traditionally considered an AI-hard problem. A break-through in this field would have a significant impact on many relevant Web-based applications, such as Web information retrieval, improved access to Web services, information extraction, etc. Early approaches to WSD, based on knowledge representation techniques, have been replaced in the past few years by more robust machine learning and statistical techniques. The results of recent comparative evaluations of WSD systems, however, show that these methods have inherent limitations. On the other hand, the increasing availability of large-scale, rich lexical knowledge resources seems to provide new challenges to knowledge-based approaches. In this paper, we present a method, called structural semantic interconnections (SSI), which creates structural specifications of the possible senses for each word in a context and selects the best hypothesis according to a grammar G, describing relations between sense specifications. Sense specifications are created from several available lexical resources that we integrated in part manually, in part with the help of automatic procedures. The SSI algorithm has been applied to different semantic disambiguation problems, like automatic ontology population, disambiguation of sentences in generic texts, disambiguation of words in glossary definitions. Evaluation experiments have been performed on specific knowledge domains (e.g., tourism, computer networks, enterprise interoperability), as well as on standard disambiguation test sets.  相似文献   

19.
为了提高Deep Web查询接口匹配的效率和准确率,在现有双重相关性挖掘方法(DCM)的基础上提出了一种用关联挖掘和语义聚类来匹配的方法。在关联挖掘成组属性时,引入一种基于互信息的属性相关度标准,并采用矩阵来实现以解决效率不高问题;在生成同义属性时,提出利用语义网来计算语义相似度,并对属性进行聚类,以生成同义属性。通过在四个领域200多个查询接口上实验,说明改进的方法在效率和准确率方面都比DCM方法有很大提高。  相似文献   

20.
基于词频反文档频率(term frequency inverse document frequency,TFIDF)的现有文本特征提取算法及其改进算法未能考虑类别内部词语之间的语义关联,如果脱离语义,提取出的特征不能很好地刻画文档的内容。为准确提取特征,在信息熵与信息增益的基础上,加入词语的语义关联因素,实现融合语义信息的特征提取,进而提出语义和信息增益相结合的TFIDF改进算法,该算法弥补了统计方法丢失语义信息的弊端。实验结果表明,该算法有效地提高了文本分类的精准率。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号