共查询到18条相似文献,搜索用时 78 毫秒
1.
实域粗糙集理论及属性约简 总被引:15,自引:1,他引:14
本文引入属性和属性子集广义重要度的概念以及空间中的广义近邻关系,提出广义近邻关系下的实域粗糙集扩展模型. 在实域粗糙集理论中,利用广义近邻关系在全局中划分相容模块,构成集合的下、上近似,避免了Pawlak粗糙集必须量化数据的麻烦. 另外,本文给出了实域粗糙集的属性约简定义和一种贪心算法,分析了约简属性集合的质量. 最后,通过实例验证了本文理论和方法的正确性和有效性. 相似文献
2.
通过对实域区间和决策值的重新划分,对已经存在的属性广义重要度度量准则进行了扩展,构建了对象空间上的广义邻域关系及广义邻域关系下的实域粗糙集模型,并在此基础上提出了实域决策系统中属性约简方法(ARRDDS).对不同数据集的实验测试结果表明,与其他相关方法相比,ARRDDS方法能够较好地处理决策表中实数域属性约简问题. 相似文献
3.
4.
5.
基于遗传算法的粗糙集属性约简算法 总被引:1,自引:0,他引:1
为了研究粗糙集理论中属性约简问题,给出了一种属性相对重要度定义,证明了其合理性,并将它应用到基于遗传算法的约简算法中,提出一种启发式遗传算法.算法采用修正策略保证群体进化收敛于最小约简,同时引入属性相对重要度作为启发信息,加快算法的收敛速度.对算法进行的时间复杂度和完备性分析以及数值实验表明,基于遗传算法的粗糙集属性约简算法具有完备、快速收敛等特点. 相似文献
6.
7.
基于粗糙集理论的属性约简算法 总被引:4,自引:1,他引:4
粗糙集理论是一种新的数据挖掘方法,其主要思想是保持分类能力不变的情况下,通过属性约简,达到发掘知识并简化知识的目的.从大量数据发现知识时,属性约简是一个关键问题.在理解和分析基于粗糙集理论的数据挖掘算法基础上,提出了一个基于属性依赖度的属性约简算法.实验结果表明,该算法能更有效地对决策系统进行约简. 相似文献
8.
9.
张先韬 《计算机工程与应用》2016,52(8):43-48
定义了基于广义多粒度粗糙集的属性约简,研究了约简的一些基本性质,给出matlab计算的过程,并给出计算实例。定义了信息系统的严格协调、软不协调性、粒度协调、粒度不协调,定义了广义多粒度下约简、粒度约简、(下/上近似)分布协调约简、(下/上近似)质量协调约简,并给出部分结论。广义多粒度粗糙集的约简适用于乐观多粒度粗糙集和悲观多粒度粗糙集。研究结果可完善多粒度粗糙集理论,为理论研究和应用奠定基础。 相似文献
10.
11.
从粗糙集理论出发,在可分辨关系和对象差异矩阵概念的基础上构造出基于粗糙集理论的并行约简算法。算法首先将原系统划分为多个子系统,然后利用评价指数对划分得到的子系统并行求解,最后以子系统的局部约简结果为基础,求得原系统的约简。算法的时空性能较好,适于处理大规模数据集。 相似文献
12.
粗糙集理论是一种处理模糊和不确定性知识的数学工具,在人工智能及数据挖掘等众多领域已经得到了广泛的应用。在程度粗糙集和变精度粗糙集的基础上,通过引入误差参数,给出了一种新的程度变精度粗糙集模型并得出了所给模型上、下近似的一些性质。最后,通过一个具体的例子,说明了这种模型在信息系统中处理模糊和不确定性知识的可行性和有效性。 相似文献
13.
14.
15.
为了减少航天器特征值属性的冗余性并提高其权重的准确性,提出了一种基于邻域粗糙集的属性约简及权重计算方法。通过对不同重要度下限分类精度的对比分析,给出了确定邻域半径的新规则。在信息观权值最优计算公式的基础上,提出了一种基于信息熵的特征值权重计算方法;给出了代数观和信息观最优组合权值确定方法,解决了代数观和信息观方法的权衡问题。将其应用于某卫星姿控系统特征值分析中,与其他方法的比较表明该方法能有效减少特征值的数目,提高特征值权重的准确性。 相似文献
16.
对粗糙集理论中不相容决策表的约简问题进行了研究.引入关联规则中支持度和置信度的概念,并重新定义了这两个概念.利用粗糙集中上近似概念的特点,提出一种将上近似用于不相容决策表的约简算法.通过一个实例介绍了该算法的基本步骤.算法对各规则能计算出各自的支持度和置信度,能实现对不相容决策表的约简. 相似文献
17.
Attribute reduction in decision-theoretic rough set models 总被引:6,自引:0,他引:6
Yiyu Yao 《Information Sciences》2008,178(17):3356-3373
Rough set theory can be applied to rule induction. There are two different types of classification rules, positive and boundary rules, leading to different decisions and consequences. They can be distinguished not only from the syntax measures such as confidence, coverage and generality, but also the semantic measures such as decision-monotocity, cost and risk. The classification rules can be evaluated locally for each individual rule, or globally for a set of rules. Both the two types of classification rules can be generated from, and interpreted by, a decision-theoretic model, which is a probabilistic extension of the Pawlak rough set model.As an important concept of rough set theory, an attribute reduct is a subset of attributes that are jointly sufficient and individually necessary for preserving a particular property of the given information table. This paper addresses attribute reduction in decision-theoretic rough set models regarding different classification properties, such as: decision-monotocity, confidence, coverage, generality and cost. It is important to note that many of these properties can be truthfully reflected by a single measure γ in the Pawlak rough set model. On the other hand, they need to be considered separately in probabilistic models. A straightforward extension of the γ measure is unable to evaluate these properties. This study provides a new insight into the problem of attribute reduction. 相似文献