共查询到17条相似文献,搜索用时 684 毫秒
1.
网络结构分析是人工智能领域基本问题。应用粒计算方法讨论了网络结构信息计算,从粒计算基本问题角度,采用商空间理论研究了网络结构粒化和粒化后不同粒度空间中的问题,特别是基于粒化如何计算不同粒层的粒间距离问题。应用方面,讨论了大规模网络结构最短路径搜索问题。作为大规模网络路径分析的预处理方法,选择社团作为基本粒,将大规模网络粒化到不同的粒度空间,形成不同粒度商空间的分层递阶粒度链。提出了基于分层递阶粒度链的大规模网络的启发式路径搜索方法。与A*和ALT方法进行了比较,验证了粒计算方法的有效性。 相似文献
2.
3.
4.
粒度计算的三种主要方法 总被引:5,自引:0,他引:5
粒度计算(Granular Computing,GrC)是新近兴起的人工智能研究领域的一个方向,它覆盖了所有有关粒度的理论、方法、技术和工具的研究。它是词计算理论、粗糙集理论、商空间理论、区间计算等的超集。词计算理论、粗糙集理论、商空间理论是粒度计算的三种主要方法。文中着重介绍了这三种粒度计算的基本理论、模型和方法,以及它们之间的关系,并展望了进一步的研究方向。 相似文献
5.
粒度计算(Granular Computing,GrC)是新近兴起的人工智能研究领域的一个方向,它覆盖了所有有关粒度的理论、方法、技术和工具的研究。它是词计算理论、粗糙集理论、商空间理论、区间计算等的超集。词计算理论、粗糙集理论、商空间理论是粒度计算的三种主要方法。文中着重介绍了这三种粒度计算的基本理论、模型和方法,以及它们之间的关系,并展望了进一步的研究方向。 相似文献
6.
张先韬 《计算机工程与应用》2016,52(8):43-48
定义了基于广义多粒度粗糙集的属性约简,研究了约简的一些基本性质,给出matlab计算的过程,并给出计算实例。定义了信息系统的严格协调、软不协调性、粒度协调、粒度不协调,定义了广义多粒度下约简、粒度约简、(下/上近似)分布协调约简、(下/上近似)质量协调约简,并给出部分结论。广义多粒度粗糙集的约简适用于乐观多粒度粗糙集和悲观多粒度粗糙集。研究结果可完善多粒度粗糙集理论,为理论研究和应用奠定基础。 相似文献
7.
针对覆盖粒度空间中的知识表示、基本运算、层次结构及粒度结构度量问题进行分析与研究.首先,定义覆盖近似空间中对象的相容类,构造覆盖粗糙集模型的相容关系,定义相容类中对象之间的相容度,由此相容关系诱导出覆盖粒度空间的概念.其次,给出覆盖粒度空间下对象的矩阵表示,定义覆盖粒度空间中基本运算,并诱导出覆盖信息粒的概念,从而对覆盖粒度空间中粒度的大小进行了度量.接着,定义覆盖粒度空间的三种偏序关系,以此揭示覆盖粒度空间的层次关系.最后,定义覆盖粒度空间的信息粒度、粗糙度和粗糙熵,研究在覆盖粒度空间中多层次粒度结构度量的各种关系.研究结果统一了覆盖粒度空间下信息粒度的相关度量,从而为粒计算的多层次粒结构理论进一步的完善提供依据. 相似文献
8.
9.
大规模网络路径问题是社会网络信息处理的基本问题。将粒计算方法引入到大规模网络研究中,结合社会网络分层和社团结构性质建立网络的多粒度层次模型,实现网络的多粒度存储,将大规模网络复杂结构映射到不同粒度空间中。为了降低问题求解的复杂度,将最短路径问题映射到不同粒度空间中,将搜索过程从粗粒度空间向细粒度空间跳转以搜索路径信息,提出基于多粒度空间的最短路径搜索算法(BGrR)来加速大规模网络路径搜索。在实验中,以城市道路交通网络为数据源,通过与A*和ALT方法比较,验证了所提算法的有效性。 相似文献
10.
网络路径搜索是图论中的经典问题,对于大规模网络的最短路径搜索问题是人工智能领域研究热点问题。应用粒计算方法求解问题的思路实现网络的粒度存储,讨论不同基本类型的网络粒化,提出分层递阶商空间链实现网络的粒度存储。就大规模网络,提出社团作为基本粒的网络快速分割方法,实现网络的粒度存储。并将网络的粒度存储的分层递阶商空间链信息作为路径搜索前的预处理工作,提出一种启发式路径搜索方法。通过实验与启发式算法进行对比,验证了该算法的有效性。 相似文献
11.
12.
日益复杂和动态变化的海量数据处理,是当前人们普遍关注的问题,其核心内容之一是研究如何利用已有的信息实现快速的知识更新.粒计算是近年来新兴的一个研究领域,是信息处理的一种新的概念和计算范式,主要用于描述和处理不确定的、模糊的、不完整的和海量的信息,以及提供一种基于粒与粒间关系的问题求解方法.作为粒计算理论中的一个重要组成部分,粗糙集是一种处理不确定性和不精确性问题的有效数学工具.根据云计算中的并行模型MapReduce,给出了并行计算粗糙集中等价类、决策类和两者之间相关性的算法;然后,设计了用于处理大规模数据的并行粗糙近似集求解算法.为应对动态变化的海量数据,结合MapReduce模型和增量更新方法,根据不同的增量策略,设计了两种并行增量更新粗糙近似集的算法.实验结果表明,该算法可以有效地快速更新知识;而且数据量越大,效果越明显. 相似文献
13.
A Method for Rule Extraction Based on Granular Computing: Application in the Fault Diagnosis of a Helicopter Transmission System 总被引:1,自引:0,他引:1
How to extract decision rules from incomplete decision table is of importance in fault diagnosis of helicopter transmission system. This paper introduces a knowledge acquisition method based on Granular Computing (GrC) for fault diagnosis of helicopter transmission system. First, following semantic analysis of missing attribute values in decision table, the basic idea of construction and interpretation of granules based on characteristic relation is studied. Then, the definition of GrC model based on characteristic relation as well as its construction algorithm is developed. Thus, a set of granules can be obtained completely and its implied information is consistent with the original decision table. Subsequently, the algorithm of attribute reduction in GrC is proposed. According to the definition of generalized decision rule, the way of extracting optimal decision rule from granules is studied. At last, Combined with an incomplete decision table for fault diagnosis of transmission system, this method has been achieved, and the analysis result shows its validity. 相似文献
14.
15.
16.
粒计算研究现状及展望 总被引:1,自引:1,他引:0
在信息处理中,粒计算是一种新的概念和计算范式,其本质是透过合适粒度的层次来对问题进行求解,并且在此过程中去除繁冗,降低实现的复杂度。本文主要对粒计算提出的背景、概念、研究现状及发展趋势进行论述,同时也给出了作者自己的评论,最后探讨了粒计算的进一步发展方向。 相似文献
17.
《Expert systems with applications》2014,41(6):2729-2741
In the past decade, granular computing (GrC) has been an active topic of research in machine learning and computer vision. However, the granularity division is itself an open and complex problem. Deep learning, at the same time, has been proposed by Geoffrey Hinton, which simulates the hierarchical structure of human brain, processes data from lower level to higher level and gradually composes more and more semantic concepts. The information similarity, proximity and functionality constitute the key points in the original insight of granular computing proposed by Zadeh. Many GrC researches are based on the equivalence relation or the more general tolerance relation, either of which can be described by some distance functions. The information similarity and proximity depended on the samples distribution can be easily described by the fuzzy logic. From this point of view, GrC can be considered as a set of fuzzy logical formulas, which is geometrically defined as a layered framework in a multi-scale granular system. The necessity of such kind multi-scale layered granular system can be supported by the columnar organization of the neocortex. So the granular system proposed in this paper can be viewed as a new explanation of deep learning that simulates the hierarchical structure of human brain. In view of this, a novel learning approach, which combines fuzzy logical designing with machine learning, is proposed in this paper to construct a GrC system to explore a novel direction for deep learning. Unlike those previous works on the theoretical framework of GrC, our granular system is abstracted from brain science and information science, so it can be used to guide the research of image processing and pattern recognition. Finally, we take the task of haze-free as an example to demonstrate that our multi-scale GrC has high ability to increase the texture information entropy and improve the effect of haze-removing. 相似文献