首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 187 毫秒
1.
语义标注是实现语义网的一个重要研究内容,目前已有很多标注方法取得了不错的效果。但这些方法几乎都没有注意到本体所描述的知识往往稀疏地分布在文档中,也未能有效地利用文档的组织结构信息,使得这些方法对质量较差的文档的标注不理想。为此提出了一种基于稀疏编码的本体语义自动标注方法((Semantic Annotation Method based on Sparse Coding, SAMSC),该方法先按本体知识描述从文档中识别出一定的语义作为初始值,再通过迭代解析文档段落结构和描述主题,完成本体知识与文档资源的相关系数矩阵计算,最后在全局文档空间中通过最小化损失函数来实现用本体对文档的语义标注。实验表明,该方法能有效地对互联网中大量良芬不齐的文档进行自动语义标注,对质量差的文档资源能取得让人接受的结果。  相似文献   

2.
为了产生语义Web中的元数据,需要提取Web文档中的语义信息。面对海量的Web文档,自动语义标注相对人工和半自动的语义标注是可行的方法。提出的基于本体知识库的自动语义标注方法,旨在提高标注的质量。为识别出文档中的候选命名实体,设计了语义词典的逻辑结构,论述了以实体之间语义关联路径计算语义距离的方法。语义标注中的复杂问题是语义消歧,提出了基于最短路径的语义消歧方法和基于n-gram的语义消歧方法。采用这种方法对文档进行语义标注,将标注结果持久化为语义索引,为实现语义信息检索提供基础。针对构建的测试数据集,进行的标注实验表明该方法能够依据本体知识库,有效地对Web文档进行自动语义标注。  相似文献   

3.
在甲骨文领域本体语义环境的基础上,提出一种针对甲骨文卜辞这种特殊结构的文档进行语义标注的方法。为提高标注的准确率,分析甲骨文特有的特征,并针对这种特殊的文档提出一系列规则。该方法首先对甲骨片上的卜辞信息进行分解,然后在甲骨文本体知识的指导下进行概念抽取。对于每个具体的实例概念在本体知识库中寻找其语义环境信息。按照所提出的规则分别计算这些信息与具体一条卜辞的重要度,最后以三元组的形式把标注信息存放于标注库中。实验结果表示,该方法依据领域本体的语义环境大大提高了标注的准确率。  相似文献   

4.
魏墨济  于涛 《计算机应用》2011,31(8):2138-2142
提出了一种标注方法实现语义网中无结构专业文档的自动标注。通过分析给出专业文档的两方面特征,并提出了三个假设。为提高标注效率,基于结构对本体进行分割,将本体划分成具有较高语义独立性的片断;然后利用从专业文档中抽取的关键词定位本体片断;最后,使用选中的片断,利用语法结构和三元组的对应性对文档进行标注。实验结果表明,所提出方法在标注效率、标注数量和准确性三个方面都有所提高。  相似文献   

5.
基于领域本体的语义标注方法研究   总被引:3,自引:0,他引:3  
介绍了语义Web.本体以及语义标注的基本概念,对语义标注方法以及现有技术工具进行了简单地说明和分析,提出了一种基于领域本体的语义标注方法,并结合石油产品领域的本体对该方法进行了实例说明.该方法通过分析文档的特征词汇,使用基于领域本体的空间向量模型方法建立词汇与本体概念之间的映射.采用这种方法对文档进行语义标注后,可以把文档隐含的语义信息显式的表现出来,这样数据库内部文档之间就具有了语义关联关系,为检索的智能推理提供基础.  相似文献   

6.
桑成  程健  史一明 《计算机应用》2017,37(6):1728-1734
为了解决闭环全生命周期管理系统中知识相互独立、无法共享的问题,针对闭环全生命周期特点,提出了一种知识集成与语义标注方法。首先,简要阐述了闭环全生命周期管理系统中知识集成与语义标注的内涵;其次,利用本体技术对低温等离子体设备构建了多维度、多层次知识集成框架;然后,在此基础上,给出了知识文档语义标注流程,设计出一种文档语义向量与本体语义向量的提取与匹配计算方法,完成了低温等离子体设备中一个子系统的知识文档语义标注。设计测试实验并进行验证,实验结果表明,利用闭环全生命周期管理系统中的知识文档数据集进行语义标注,平均准确率达到84%,平均召回率达到79%。所提知识集成与语义标注方法可以实现知识文档在闭环全生命周期管理系统中的共享与重用。  相似文献   

7.
提出一种基于领域服务本体的语义标注方法.并结合电力系统领域本体对该方法进行实例说明,该方法通过分析文档(或者网页)的关键信息,使用基于OWL-S本体的语义描述方法建立关键信息与本体概念之间的映射.采用这种方法对文档进行语义标注后,可以把文档隐含的Web服务信息显式地表现出来,这样多个文档(或者网页)之间就具有语义关联关系.为服务的语义解析及智能监控提供基础.  相似文献   

8.
通过对Internet上的模具知识特点的分析,提出了一种基于模具本体的语义标注方法,对Internet上的模具知识进行描述,并结合 实例对该方法进行了说明.该方法使用基于模具本体的向量空间模型(VSM)方法,将从页面中提取的特征词,用领域本体进行理解、扩充,然后基于改进后的TFIDF算法,求出扩充后每个特征词的权值.通过这种方法对网页文档进行语义标注后,可以把文档隐含语义信息显式地表现出来,为模具知识搜索引擎的设计提供了基础.  相似文献   

9.
针对SCORM学习对象模型语义缺失的问题,结合语义Web本体标注的技术,提出一种使用语义标注实现SCORM模型本体化的方法。该方法从SCORM规范中提取语义信息构建SCORM本体模型,以公理的方式形式化表示了SCORM的语义信息和语义约束。并以此为基础在现有SCORM学习资源中扩展语义标注信息,使SCORM学习资源中的元素和属性映射到SCORM本体的类和属性,使用SCORM本体模型为学习资源提供语义约束和知识推理。该方法遵照SCORM语法、语义,以及扩展思想,将SCORM信息模型映射为SCORM知识模型,把SCORM学习对象的使用提高到知识重用和知识互操作的层面。  相似文献   

10.
针对目前矿山领域异构数据融合时先验知识获取困难、物联网本体库实时性差、实例对象数据手动标注方式效率较低等问题,提出了一种矿山语义物联网自动语义标注方法。给出了传感数据语义化处理框架:一方面,确定本体的专业领域和范畴,通过重用流注释本体(SAO)构建领域本体,作为驱动语义标注的基础;另一方面,使用机器学习方法对感知数据流进行特征提取与数据分析,从海量数据中挖掘出概念间的关系;通过数据挖掘知识来驱动本体的更新与完善,实现本体的动态更新、拓展与更精确的语义标注,增强机器的理解力。以矿井提升系统主轴故障为例阐述从本体到实例化的语义标注过程:结合领域专家知识及本体重用,采用"七步法"建立矿井提升系统主传动故障本体;为了加强实例数据属性描述的准确性,使用主成分分析法(PCA)与K-means聚类方法对数据集进行降维和分组,提取出数据属性与概念的关系;通过基于语义Web的规则语言(SWRL)标注具体先行条件与后续概念的关系,优化领域本体。实验结果表明:在本体实例化过程中,可利用机器学习技术从传感数据中自动提取概念,实现传感数据的自动语义标注。  相似文献   

11.
12.
需求质量已经成为确保软件项目成功的一个重要因素,对复杂软件系统的需求进行检查和验证,是需求工程中非常重要的工作。在基于领域本体的需求获取和分析等相关工作基础上,提出了一种基于本体和语义规则的需求一致性验证方法,将自然语言描述的需求分解成若干结构良好的最小需求项,使用领域本体的概念模型对其进行形式化和结构化的表示。通过领域本体中的知识来映射需求语义,采用语义万维网规则语言(SWRL)来定义需求一致性验证的推理规则,并通过实例对此方法进行了分析和验证。  相似文献   

13.
从已有的数据模型中进行语义提取,经过一定的规则映射生成本体的过程称为本体学习。关系数据库模型是当前数据的存取与组织的主要模型,从中学习得到本体,一直是本体工程领域研究的热点之一。利用手工定义的E-R模型到本体的映射规则来完成本体的构建,是国内外大部分学者采用的方法。但这样获得的本体概念层次关系主观依赖性强,不利于本体的实际应用。为了能更加客观地获取数据之间的概念层次关系与语义信息,提出了一种基于FCA(形式概念分析)从关系数据库进行本体学习的方法。该方法既保持了关系数据表中原有的数据语义关系,又发挥了FCA自动提取语义信息的特点,提高了最终本体生成的质量,有利于在具体的领域应用中使用本体。最后结合材料服役安全数据库的数据信息,演示了运用所提出的方法学习得到领域本体的过程。  相似文献   

14.
The amount of ontologies and semantic annotations available on the Web is constantly growing. This new type of complex and heterogeneous graph-structured data raises new challenges for the data mining community. In this paper, we present a novel method for mining association rules from semantic instance data repositories expressed in RDF/(S) and OWL. We take advantage of the schema-level (i.e. Tbox) knowledge encoded in the ontology to derive appropriate transactions which will later feed traditional association rules algorithms. This process is guided by the analyst requirements, expressed in the form of query patterns. Initial experiments performed on semantic data of a biomedical application show the usefulness and efficiency of the approach.  相似文献   

15.
随着语义Web技术的不断发展,基于XML的数据文档管理成为语义Web技术发展的难题,特别是RDF,DAML,OIL,OWL等本体语言的提出,基于XML的本体文档日趋复杂,传统的在关系数据库中依靠映射关系管理本体文档越来越困难。提出使用XML数据库Xindice来存储查询本体文档并设计了存储查询方法。  相似文献   

16.
Emergent knowledge does not come from a particular document or a particular knowledge source, but comes from a collection of documents or knowledge sources. This paper proposes a system which combines social web content and semantic web technology to process the emergent knowledge from the blogosphere. The proposed system regards blog postings as experiences of people on particular topics. By annotating postings in the selected domains with ontology vocabularies, the system collects experiences from various people into an ontology about people and experiences. The system processes this ontology with semantic rules to find the emergent knowledge. Users can access previously unavailable facts, concepts and trends which are emerging from social web content by using the proposed system.  相似文献   

17.
There is an increasing demand for sharing learning resources between existing learning resource systems to support reusability, exchangeability, and adaptability. The learning resources need to be annotated with ontologies into learning objects that use different metadata standards. These ontologies have introduced the problems of semantic and structural heterogeneity. This research proposes a Semantic Ontology Mapping for Interoperability of Learning Resource Systems. To enable semantic ontology mapping, this research proposes conflict detection and resolution techniques for both semantic and structural conflicts. The Semantic Bridge Ontology has been proposed as a core component for generating mapping rules to reconcile terms defined in local ontologies into terms defined in the target common ontology. This work defines the reasoning rules to classify related learning objects to enhance the powerful deductive reasoning capabilities of the system. As a consequence, ontology-based learning object metadata are generated and used by the semantic query engine to facilitate user queries of learning objects across heterogeneous learning resource systems.  相似文献   

18.
Information sources such as relational databases, spreadsheets, XML, JSON, and Web APIs contain a tremendous amount of structured data that can be leveraged to build and augment knowledge graphs. However, they rarely provide a semantic model to describe their contents. Semantic models of data sources represent the implicit meaning of the data by specifying the concepts and the relationships within the data. Such models are the key ingredients to automatically publish the data into knowledge graphs. Manually modeling the semantics of data sources requires significant effort and expertise, and although desirable, building these models automatically is a challenging problem. Most of the related work focuses on semantic annotation of the data fields (source attributes). However, constructing a semantic model that explicitly describes the relationships between the attributes in addition to their semantic types is critical.We present a novel approach that exploits the knowledge from a domain ontology and the semantic models of previously modeled sources to automatically learn a rich semantic model for a new source. This model represents the semantics of the new source in terms of the concepts and relationships defined by the domain ontology. Given some sample data from the new source, we leverage the knowledge in the domain ontology and the known semantic models to construct a weighted graph that represents the space of plausible semantic models for the new source. Then, we compute the top k candidate semantic models and suggest to the user a ranked list of the semantic models for the new source. The approach takes into account user corrections to learn more accurate semantic models on future data sources. Our evaluation shows that our method generates expressive semantic models for data sources and services with minimal user input. These precise models make it possible to automatically integrate the data across sources and provide rich support for source discovery and service composition. They also make it possible to automatically publish semantic data into knowledge graphs.  相似文献   

19.
为了解决已有信息抽取系统中方法不具有重用性及不能抽取语义信息的问题,提出了一个基于领域本体的面向主题的Web信息抽取框架.对Web中文页面,借助外部资料,利用本体解析信息,对文件采集及预处理中的源文档及信息采集、文档预处理、文档存储等技术进行了分析设计,提出了文本转换中的分词及词表查询和命名实体识别算法,并给出了一种知识抽取方案.实验结果表明,该方法可以得到性能较高的抽取结果.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号