首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 203 毫秒
1.
赵小龙  杨燕 《控制与决策》2019,34(10):2061-2072
增量式属性约简是针对动态型数据的一种重要的数据挖掘方法,目前已提出的增量式属性约简算法大多基于离散型数据构建,很少有对数值型数据进行相关的研究.鉴于此,提出一种数值型信息系统中对象不断增加的增量式属性约简算法.首先,在数值型信息系统中建立一种分层的邻域粒化计算方法,并基于该方法提出邻域粒化的增量式计算;然后,在邻域粒化增量式计算的基础上给出邻域粒化条件熵的增量式更新方法,并基于该更新机制提出对应的增量式属性约简算法;最后,通过实验分析表明所提出算法对于数值型数据的增量式属性约简具有更高的有效性和优越性.  相似文献   

2.
史进玲 《福建电脑》2012,28(7):1-2,6
为有效地处理序信息系统,基于粒计算理论提出一种新的序决策表约简算法。该方法首先将序信息系统转换为序关系矩阵,分析讨论序关系矩阵中粒计算模型和粒度度量方法,然后基于不同阶知识粒库,尝试在不改变序信息系统中序关系的前提下,从核属性集出发,结合启发式约简思路提出一种基于粒计算的序决策表约简算法。最后通过实例验证该方法的有效性。  相似文献   

3.
姚晟  汪杰  徐风  陈菊 《计算机应用》2018,38(1):97-103
针对现有的属性约简算法不适合处理数值型属性和符号型属性共同存在的不完备数据,提出了一种拓展不完备邻域粗糙集模型。首先,通过考虑属性值的概率分布来定义缺失属性值之间的距离,可以度量具有混合属性的不完备数据;其次,定义了邻域混合熵来评价属性约简的质量,分析证明了相关的性质定理,并构造了一种基于邻域混合熵的不完备邻域粗糙集属性约简算法;最后从UCI数据集中选取了7组数据进行实验,并分别与基于依赖度的属性约简(ARD)、基于邻域条件熵的属性约简(ARCE)、基于邻域组合测度的属性约简(ARNCM)算法进行了比较。理论分析和实验结果表明,所提算法约简属性比ARD、ARCE、ARNCM分别减少了约1,7,0个,所提算法的分类精度比ARD、ARCE、ARNCM分别提高了约2.5,2.1,0.8个百分点。所提算法不仅能够获得较少的约简属性,同时具有较高的分类精度。  相似文献   

4.
粒矩阵属性约简的启发式算法   总被引:1,自引:0,他引:1  
属性约简是粗糙集理论一个重要的研究问题.在粗糙集理论上,利用粒计算的思想构建了粒矩阵,提出并定义了粒矩阵相与运算,建立了基于粒矩阵的知识粒化方法,并且给出了粒矩阵属性约简的启发式算法.采用粒矩阵进行属性约简选择最小属性集,跳出了传统属性约简的先求解属性核,再求解最优属性集的方法.理论分析表明了新的算法是可靠有效的,给粒计算属性约简提供一个新的思路,为进一步研究粒计算提供可行的方法.  相似文献   

5.
传统的规则挖掘算法通常先约简属性再约简属性值. 该方法存在冗余计算, 当样本集增大时, 复杂性急剧增加. 对此提出一种基于粒计算的最简决策规则挖掘算法. 首先, 在不同粒度空间下计算条件粒与决策粒之间的粒关系矩阵; 然后, 将粒关系矩阵中隐含的信息H 1、H 2 作为启发式算子, 按信息粒约简属性值; 最后, 去除冗余属性并设置终止条件, 实现决策规则的快速挖掘. 理论分析和实验结果表明, 所提出的算法可以获得更简洁的规则, 且规则的泛化能力更强.  相似文献   

6.
覆盖粗糙集是Pawlak粗糙集的一种重要推广。类似于Pawlak粗糙集,约简也是覆盖粗糙集中的核心问题之一。通过引入覆盖族的信息量的概念,讨论了覆盖协调集、约简以及核的等价判定定理,同时对覆盖的重要性进行了度量;在此基础上,提出一种完备的启发式覆盖约简算法,它能够从搜索空间中逐步删除不重要覆盖,避免对其重要性的重复计算;最后,通过一个购房综合评价的实例说明了该算法的可行性与有效性。  相似文献   

7.
增量式属性约简是一种针对动态数据集的新型属性约简方法。然而目前的增量式属性约简很少有对不完备混合型的信息系统进行研究。针对这类问题提出一种属性增加时的增量式属性约简算法。在不完备混合型信息系统下引入邻域容差关系。基于邻域容差关系的粒化单调性,提出信息系统属性增加时邻域容差条件熵的增量式更新方法,并提出了不完备混合型信息系统下的邻域容差条件熵增量式属性约简算法。实验分析表明了该算法的有效性。  相似文献   

8.
基于覆盖的粗集是推广经典粗集理论的方法之一,有基于元素、基于粒和基于子系统的3类定义上下近似的途径,以往大多数的文献往往从基于元素的角度出发进行定义。为了研究基于粒的近似算子特别是下近似算子的性质,借鉴格论中既约元、可约元等概念,提出了集族约简的概念。从集族约简出发,探讨了集族等价的概念与性质,并设计了集族约简的算法,得到了两个集族等价是两个集族生成相同的下近似运算的充要条件这一结果,为进一步开展一般二元关系下基于粒的近似算子的公理化方法的研究做了初步的理论方面的准备工作。  相似文献   

9.
粒计算是一种处理不确定性数据的理论方法,涵盖粗糙集、模糊集、商空间、词计算等。目前,数据的粒化与粒的计算主要涉及集合的运算与度量,集合运算的低效制约着粒计算相关算法的应用领域。为此,提出了一种二进制粒计算模型,给出了粒的三层结构,包括粒子、粒群与粒库,并定义了二进制粒子及二进制粒子的运算,将传统的集合运算转化为二进制数的计算,进一步给出了二进制粒子的距离度量,将等价类的集合表示方式转化为粒子的距离度量表示方式,给出了粒子距离的相关性质。该模型定义了二进制粒群距离的概念,给出了二进制粒群距离的计算方法,提出了基于二进制粒群距离的属性约简方法,证明了该方法与经典粗糙集约简方法的等价性,并以二进制粒群距离作为启发式信息,给出了两种约简算法。  相似文献   

10.
本文介绍了粒计算及粗糙集的基本概念,通过对粒计算下的粗糙集模型中两种属性约简算法分析对比,提出结合两种属性约简方法,即用差别矩阵求得核属性后,将属性重要性作为启发信息继续进行属性约简,可取得合理的属性组合,并将该方法应用于农业气象数据,挖掘出了合理的可进行预测的规则集。  相似文献   

11.
结合软覆盖与信息熵,提出软覆盖信息熵.定义软覆盖信息熵、软覆盖联合熵、软覆盖条件熵,并研究这些熵之间的关系及它们的重要性质.最后给出两种基于软覆盖条件熵的多属性群决策的算法,举例说明这两种算法的结果具有一致性.  相似文献   

12.
提出一种基于粒度计算模型的决策规则提取算法。我们用属性取值构成粒度集合取代条件属性,每一步都选择单个粒度。该方法将产生对象的一个覆盖。还描述了粒度搜索策略和对粒度测量的方法,通过规则的可信度和覆盖度对决策规则进行归类优选。最后对粒度计算在规则提取中的应用进行了讨论研究。  相似文献   

13.
近年来,人们越来越关注粗糙集中的属性约简算法,尤其是启发式的约简算法。为了度量属性重要度,人们把各种不同的信息熵模型应用到粗糙集中,同时在信息熵这一理论的基础上得出了许多约简算法,用来解决粗糙集中属性约简的问题。然而,现有的基于信息熵的方法还存在一系列问题。针对这些问题,本文首先将知识粒度与相对决策熵这2个概念结合在一起,从而引入一种新的信息熵模型--粒度决策熵;然后,利用粒度决策熵来度量属性的重要性,并由此得出新的约简算法--ARGDE约简算法;最后,用不同的UCI数据集来做实验,通过与已有的约简算法比较,该算法能够得到更好的实验结果。  相似文献   

14.
基于最大粒的规则获取算法   总被引:1,自引:0,他引:1  
粒计算是模拟人类思维和解决复杂问题的方法,它是复杂问题求解、海量数据挖掘、模糊信息处理的有效工具。文中首先分析并指出传统的规则获取方法存在的某些弊端,并从粒计算的角度分析属性约简的粒度原理,指出属性约简过程的本质是寻找决策划分空间的一个极大近似划分空间,而在极大近似划分空间上提取的规则可能不是最简规则。为此,提出一种基于最大粒的规则获取算法,该算法根据条件属性对论域形成的分层递阶的划分空间,自顶向下逐渐提取最大粒对应的规则。仿真实验表明该算法提高粗糙集的泛化能力。  相似文献   

15.
粗糙集的不确定性度量在知识获取中扮演着非常重要的角色。在邻域粗糙集理论中,当前不确定性度量方面的研究工作主要专注于度量单个知识空间的不确定性及其随粒度变化的单调性规律,其仍存在以下缺点:1)邻域粗糙集不确定性来自于邻域粒中属于目标概念的元素和不属于目标概念的元素,当前的方法没有同时考虑每个邻域信息粒的这两部分;2)不能反映不同知识空间对目标概念刻画能力的差异性;3)由于当前的知识距离包含了粒度划分的信息,已有方法在一些应用场合下不够准确,例如属性约简中的知识启发式搜索及其粒度选择。对此,文中首先构建了一种更加直观准确的邻域粗糙集的不确定性度量方法——邻域熵,并证明了不确定性度量随着粒度的细化具有单调性;为了反映不同邻域信息粒对目标概念刻画能力的差异性,提出了一种带近似描述能力的邻域粒距离,称为相对邻域粒距离,并介绍了它的相关性质;针对分层递阶的多粒度知识空间中的粒度选择问题,建立了基于边界域的邻域知识距离度量模型,该知识距离可以反映不同邻域知识空间对目标概念的刻画能力的差异性。  相似文献   

16.
基于条件信息熵的覆盖约简算法   总被引:1,自引:0,他引:1       下载免费PDF全文
李永顺  贾瑞玉 《计算机工程》2010,36(16):176-179
针对覆盖算法中识别精度与泛化能力存在的矛盾,在信息论观点的Rough集理论基础上,提出覆盖熵概念,以决策属性相对于分类器的条件信息熵为约束条件,在确保算法分类能力不降低的情况下,对一组覆盖中信息熵最大的覆盖进行约简,减少了分类器的不确定因素。实验结果证明,该算法具有很好的识别精度与泛化能力,对模糊、不确定的数据也具有较好的处理能力。  相似文献   

17.
张钧波  李天瑞  潘毅  罗川  滕飞 《软件学报》2015,26(5):1064-1078
日益复杂和动态变化的海量数据处理,是当前人们普遍关注的问题,其核心内容之一是研究如何利用已有的信息实现快速的知识更新.粒计算是近年来新兴的一个研究领域,是信息处理的一种新的概念和计算范式,主要用于描述和处理不确定的、模糊的、不完整的和海量的信息,以及提供一种基于粒与粒间关系的问题求解方法.作为粒计算理论中的一个重要组成部分,粗糙集是一种处理不确定性和不精确性问题的有效数学工具.根据云计算中的并行模型MapReduce,给出了并行计算粗糙集中等价类、决策类和两者之间相关性的算法;然后,设计了用于处理大规模数据的并行粗糙近似集求解算法.为应对动态变化的海量数据,结合MapReduce模型和增量更新方法,根据不同的增量策略,设计了两种并行增量更新粗糙近似集的算法.实验结果表明,该算法可以有效地快速更新知识;而且数据量越大,效果越明显.  相似文献   

18.
In the past decade, granular computing (GrC) has been an active topic of research in machine learning and computer vision. However, the granularity division is itself an open and complex problem. Deep learning, at the same time, has been proposed by Geoffrey Hinton, which simulates the hierarchical structure of human brain, processes data from lower level to higher level and gradually composes more and more semantic concepts. The information similarity, proximity and functionality constitute the key points in the original insight of granular computing proposed by Zadeh. Many GrC researches are based on the equivalence relation or the more general tolerance relation, either of which can be described by some distance functions. The information similarity and proximity depended on the samples distribution can be easily described by the fuzzy logic. From this point of view, GrC can be considered as a set of fuzzy logical formulas, which is geometrically defined as a layered framework in a multi-scale granular system. The necessity of such kind multi-scale layered granular system can be supported by the columnar organization of the neocortex. So the granular system proposed in this paper can be viewed as a new explanation of deep learning that simulates the hierarchical structure of human brain. In view of this, a novel learning approach, which combines fuzzy logical designing with machine learning, is proposed in this paper to construct a GrC system to explore a novel direction for deep learning. Unlike those previous works on the theoretical framework of GrC, our granular system is abstracted from brain science and information science, so it can be used to guide the research of image processing and pattern recognition. Finally, we take the task of haze-free as an example to demonstrate that our multi-scale GrC has high ability to increase the texture information entropy and improve the effect of haze-removing.  相似文献   

19.
从粒度计算的角度对粗糙集理论的属性约简进行研究,分别基于代数方法和信息论方法定义了粒度差和粒度熵的概念,并在此基础上提出了两种新的属性约简算法.实验分析表明,这两种可靠有效的粒度计算方法都能得到信息表的最小约简,为进一步研究知识的粒度计算提供了可行的方法.  相似文献   

20.
In this paper, we propose some new approaches for attribute reduction in covering decision systems from the viewpoint of information theory. Firstly, we introduce information entropy and conditional entropy of the covering and define attribute reduction by means of conditional entropy in consistent covering decision systems. Secondly, in inconsistent covering decision systems, the limitary conditional entropy of the covering is proposed and attribute reductions are defined. And finally, by the significance of the covering, some algorithms are designed to compute all the reducts of consistent and inconsistent covering decision systems. We prove that their computational complexity are polynomial. Numerical tests show that the proposed attribute reductions accomplish better classification performance than those of traditional rough sets. In addition, in traditional rough set theory, MIBARK-algorithm [G.Y. Wang, H. Hu, D. Yang, Decision table reduction based on conditional information entropy, Chinese J. Comput., 25 (2002) 1-8] cannot ensure the reduct is the minimal attribute subset which keeps the decision rule invariant in inconsistent decision systems. Here, we solve this problem in inconsistent covering decision systems.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号