首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 156 毫秒
1.
利用模糊集的一个强包含度,在弱模糊划分的基础上建立了基于该包含度的变精度模糊粗糙集模型,对其重要性质进行了深入研究,并给出了对应形式粗糙度的计算方法,进一步利用海明距离和欧几里得距离定义了该模型下模糊粗糙集的两个粗糙性度量。给出的变精度模糊粗糙集模型能够使模糊粗糙集的运算按照模糊集的运算实现,为变精度模糊粗糙集理论的研究和应用莫定了一定的理论基础。  相似文献   

2.
粗糙集的不确定性度量是粗糙集理论的重要研究内容之一。结合模糊理论和粒计算理论改进了粗糙集的不确定性度量方法。通过集合的相对知识粒度及边界熵给出了粗糙集的粗糙性度量函数与模糊性度量函数,随着近似空间知识粒的细分,粗糙集的粗糙度与模糊度均满足单调递减的性质。利用矩阵理论提出了易于实现的粗糙性度量与模糊性度量的矩阵算法。  相似文献   

3.
粗糙包含关系是粗糙集理论中一个重要概念,粗糙包含关系也是近似空间中的一个拟序关系。文章给出了在同一近似空间中比较两个不同粗糙集的包含可能度的计算公式,研究了粗糙包含可能度的性质,并讨论了粗糙包含度、粗糙度和划分加细关系之间的联系。  相似文献   

4.
林娟  米据生  解滨 《计算机科学》2015,42(6):97-100
粗糙集理论是一种新的处理模糊和不确定性知识的软计算工具.在近似空间中,首先基于集合的上下近似给出了一种粗糙集间的相似度量方法.然后通过定义一种基于粗糙隶属函数的包含度,给出了另外一种粗糙集间的相似度量方法,并分别研究了这两种相似度量方法的有关性质.最后讨论了这两种相似度量方法之间的关系.  相似文献   

5.
粗糙模糊集的不确定性度量   总被引:7,自引:1,他引:7  
粗糙集理论是一种有效处理不精确、不确定含糊信息的数学理论,近年来已被广泛应用于机器学习、数据挖掘、智能数据分析。该文结合知识粗糙性与信息熵给出了一种关于粗糙模糊集(RF集)的不确定性度量。  相似文献   

6.
粗糙集和直觉模糊集的融合是一个研究热点。在粗糙集、直觉模糊集和覆盖理论基础上,给出了模糊覆盖粗糙隶属度和非隶属度的定义。考虑到元素自身与最小描述元素的隶属度和非隶属度之间的关系,构建了两种新的模型——覆盖粗糙直觉模糊集和覆盖粗糙区间值直觉模糊集,证明了这两种模型的一些重要性质,与此同时定义了一种新的直觉模糊集的相似性度量公式,并用实例说明其应用。  相似文献   

7.
粗糙集理论是一种处理不精确、不确定与不完整数据的新型数学工具。粗糙集的度量是粗糙集理论研究的重要内容之一。提出了上粗糙测度、下粗糙测度与粗糙测度的概念,给出了它们的一些性质,为粗糙集合提供了一种新的度量方式。  相似文献   

8.
不同知识粒度下粗糙集的不确定性研究   总被引:27,自引:1,他引:26  
粗糙集的不确定性度量方法,目前主要包括粗糙集的粗糙度、粗糙熵、模糊度和模糊熵.在不同知识粒度下,从属性的角度,给出了分层递阶的知识空间链,发现在分层递阶的知识粒度下部分文献中定义的粗糙集的粗糙熵和模糊度随知识粒度的变化规律不一定符合人们的认识规律.从信息熵的角度提出了一种粗糙集不确定性的模糊度度量方法,证明了这种模糊度随知识粒度的减小而单调递减,弥补了现有粗糙熵和模糊度度量粗糙集不确定性的不足.最后,分析了在不同知识粒度下粗糙度和模糊度的变化关系.  相似文献   

9.
张倩倩      马媛媛      徐久成     《智能系统学报》2018,13(4):650-655
粗糙Vague集是将粗糙集和Vague集理论相互融合以处理不确定性信息的一种理论工具。本文在深入研究Vague集及粗糙模糊集的关联熵、关联熵系数及集合相似性度量方法基础上,将关联熵和关联熵系数的概念引入到粗糙Vague集,并详细讨论了它们的主要性质,同时证明了关联熵系数满足粗糙Vague集相似度的定义,可用于粗糙Vague集的相似性度量。最后通过实例验证了粗糙Vague集的关联熵系数用于度量粗糙Vague集之间相似性程度的有效性,该理论为粗糙Vague集相似性度量提供了一种新方法。  相似文献   

10.
不确定性度量是粗糙集理论研究的重要内容之一。分析了目前粗糙集不确定性度量主要方法的不足,给出了基于边界域的粗糙集粗糙边界熵的定义。证明了这种粗糙边界熵随着知识粒度的减小而单调减小,而且当负域的知识颗粒被细分时,粗糙边界熵不变。给出了粗糙边界熵的两条性质。  相似文献   

11.
基于改进粗糙逼近近似度量的数据挖掘方法   总被引:1,自引:0,他引:1  
数据挖掘是知识发现领域的一个重要问题,粗糙集理论是一种具有模糊边界的数据挖掘方法,它被广泛应用于决策系统的分类规则提取中。论文在决策表条件属性重要性度量的基础上,根据条件属性对决策类划分的逼近近似度量,提出了基于改进粗糙逼近近似度量的数据挖掘进行属性约减方法,并用算例验证了算法的合理性和可行性。  相似文献   

12.
经典粗集理论给出了不可识别、上近似、下近似、简式和核等概念,其核心思想是运用条件属性集导致的知识粒子来近似决策属性集导致的知识粒子,进而推导出规则。这些知识粒子的实质是根据存在于属性值问的等价关系得到的,而事实上可能存在某些属性,其属性值内部存在序关系,与其它某属性间存在语义关系,这样的属性称为标准。本文所研究的粗集方法,考虑标准所携带的这些信息,推导出含有序信息的规则,并探讨使推导的规则更加完全和一致。本文给出了含序粗集方法(CORS)的定义、数据分析以及规则生成方法,并提出了一种更加合理的质量近似公式以及生成规则的四条原则。  相似文献   

13.
Feature selection plays an important role in data mining and machine learning tasks. Rough set theory has been a prominent tool for this purpose. It characterizes a dataset by using two important measures called lower and upper approximation. Dominance based rough set approach (DSRA) is an extension to conventional rough set theory. It is based on persistence of preference order while extracting knowledge from datasets. Dominance principal states that objects belonging to a certain decision class should follow the preference order. Preference order states that an object having higher values of conditional attributes should belong to higher decision classes. However, some of the basic concepts like checking preference order consistency of a dataset, dominance based lower approximation and upper approximation are computationally too expensive to be used for large datasets. In this paper, we have proposed a parallel incremental approach called Parallel Incremental Approximation Calculation or PIAC for short, for calculating these measures of lower and upper approximations. The proposed approach incrementally calculates lower and upper approximations using parallel threads. We compare our method with the conventional approach using ten widely used datasets. Whilst achieving the same accuracy levels as the conventional approach, our approach significantly reduces the average computation time, i.e., 71% for the lower approximation and 70% for the upper approximation. Over all datasets, the decrease in memory usage achieved was 99%.  相似文献   

14.
The degree of malignancy in brain glioma is assessed based on magnetic resonance imaging (MRI) findings and clinical data before operation. These data contain irrelevant features, while uncertainties and missing values also exist. Rough set theory can deal with vagueness and uncertainty in data analysis, and can efficiently remove redundant information. In this paper, a rough set method is applied to predict the degree of malignancy. As feature selection can improve the classification accuracy effectively, rough set feature selection algorithms are employed to select features. The selected feature subsets are used to generate decision rules for the classification task. A rough set attribute reduction algorithm that employs a search method based on particle swarm optimization (PSO) is proposed in this paper and compared with other rough set reduction algorithms. Experimental results show that reducts found by the proposed algorithm are more efficient and can generate decision rules with better classification performance. The rough set rule-based method can achieve higher classification accuracy than other intelligent analysis methods such as neural networks, decision trees and a fuzzy rule extraction algorithm based on Fuzzy Min-Max Neural Networks (FRE-FMMNN). Moreover, the decision rules induced by rough set rule induction algorithm can reveal regular and interpretable patterns of the relations between glioma MRI features and the degree of malignancy, which are helpful for medical experts.  相似文献   

15.
Fuzzy rough set is a generalization of crisp rough set, which deals with both fuzziness and vagueness in data. The measures of fuzzy rough sets aim to dig its numeral characters in order to analyze data effectively. In this paper we first develop a method to compute the cardinality of fuzzy set on a probabilistic space, and then propose a real number valued function for each approximation operator of the general fuzzy rough sets on a probabilistic space to measure its approximate accuracy. The functions of lower and upper approximation operators are natural generalizations of the belief function and plausibility function in Dempster-Shafer theory of evidence, respectively. By using these functions, accuracy measure, roughness degree, dependency function, entropy and conditional entropy of general fuzzy rough set are proposed, and the relative reduction of fuzzy decision system is also developed by using the dependency function and characterized by the conditional entropy. At last, these measure functions for approximation operators are characterized by axiomatic approaches.  相似文献   

16.
一种基于Rough集的层次聚类算法   总被引:13,自引:0,他引:13  
Rough集理论是一种新型的处理含糊和不确定性知识的数学工具,将Rough集理论应用于知识发现中的聚类分析,给出了局部不可区分关系、个体之间的局部不可区分度和总不可区分度、类之间的不可区分度、聚类结果的综合近似精度等定义,在此基础上提出了一种基于Rough集的层次聚类算法,该算法能够自动调整参数,以寻求更优的聚类结果。验结果验证了该算法的可行性,特别是在符号属性聚类方面有较好的聚类性能。  相似文献   

17.
基于粗集的朴素贝叶斯分类算法及其应用   总被引:1,自引:0,他引:1       下载免费PDF全文
朴素贝叶斯方法是数据库分类知识挖掘领域一项基本技术,具有广泛的应用。论文针对朴素贝叶斯方法的限制,提出了基于粗集理论的贝叶斯的分类知识挖掘方法。该方法首先基于粗集理论的属性约简能力,根据数据库中条件属性和决策属性之间的依赖关系,进行属性的约简处理,然后基于朴素贝叶斯方法进行分类知识挖掘。实验结果表明,基于粗集理论的贝叶斯分类方法改善了贝叶斯分类方法中属性之间独立的限制,简化了挖掘模型,使挖掘性能具有明显的优化。  相似文献   

18.
核属性蚁群算法的规则获取   总被引:1,自引:0,他引:1  
蚁群算法是一种新型的模拟进化算法,研究已经表明该算法具有许多优良的性质,并且在优化计算中已得到了很多应用.粗糙集理论作为一种智能数据分析和数据挖掘的新的数学工具,其主要优点在于它不需要任何关于被处理数据的先验或额外知识.本文从规则获取和优化两方面研究基于粗糙集理论和蚁群算法的分类规则挖掘方法.通过研究决策表和决策规则系数,建立基于粗糙集表示和度量的知识理论,将粗糙集理论与蚁群算法融合,采用粗糙集理论进行属性约简,利用蚁群算法获取最优分类规则,优势互补.实验结果比较表明,算法获取的分类规则,具有良好的预测能力和更为简洁的表示形式.  相似文献   

19.
在分析Pawlak近似空间Rough集的近似质量时,常采用准确性因子α和精确性因子β;在比较两个划分的好坏时采用属性的依赖度来描述。文章提出了误差度概念,利用误差度能更好地分析Rough集的近似质量,比较分划的优劣;同时也给出了属性依赖度新的表达式。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号