共查询到20条相似文献,搜索用时 78 毫秒
1.
2.
3.
共享知识挖掘是指通过学习不同事物之间的共享知识,将学习到的知识应用到未知事物来加快认知未知事物。针对大数据集中串行共享知识挖掘算法效率低下的问题,结合云计算技术,提出了一种基于Hadoop的并行共享决策树挖掘算法(PSDT)。该算法采用传统的属性表结构实现并行挖掘,但 其I/O操作过多,影响算法性能,为此,进一步提出了一种混合并行共享决策树挖掘算法(HPSDT)。该算法采用混合数据结构,在计算分裂指标阶段使用属性表结构,在分裂阶段采用数据记录结构。数据分析表明,HPSDT算法简化了分裂过程,其I/O操作是PSDT的0.34左右。实验结果表明,PSDT和HPSDT都具有良好的并行性和扩展性;HPSDT比PSDT性能更好,并且随着数据集的增大,HPSDT的优越性更加明显。 相似文献
4.
本文提出一种基于决策树ID3算法的软件使用用户分类方法,利用软件的运行日志提取出软件使用记录的主要属性数据,对源数据进行数据预处理转化为挖掘算法可用数据集,从中提取出软件使用用户的分类规则,构建分类模型并根据形成的规则找出使用软件的异常用户,从而便于管理人员对B/S模式软件数据库系统的安全管理和维护。 相似文献
5.
6.
一种基于决策树的快速关联规则挖掘算法 总被引:2,自引:0,他引:2
本文对关联规则的挖掘问题进行了深入研究.在总结现有算法优缺点的基础上,提出了一种新的基于决策树的快速关联规则挖掘算法(RABDT),结合决策树的构造过程,给出了算法的原理和实现步骤,并通过实验对比验证了算法的有效性. 相似文献
7.
《计算机应用与软件》2014,(8)
针对常规决策树算法在挖掘数据流时存在的不足,提出一种基于正态分布的决策树NDDT(Normal Distribution Decision Tree)算法。从近似正态分布的相关定理出发,详细分析算法的具体实现过程,给出算法实现的伪代码及注释,并借助Matlab软件进行建模与仿真。结果表明,NDDT算法具有精度高、精度不依赖于参数δ、处理时间短及处理时间与训练数据样本呈近似线性关系等优点。因此NDDT算法具有可行性、可靠性及良好的应用前景。 相似文献
8.
随着生物科学技术的发展,其数据量的增长也非常迅速,很难在一定合理的时间内对数据进行建模和分析。因此,对并行数据挖掘算法的研究巳变成解决此问题的重要途径。决策树途径巳被广泛用作一种重要的分类工具,本文研究了几种决策树的并行训练策略并对它们的性能进行了比较。 相似文献
9.
10.
11.
加热炉多模式动态优化控制策略 总被引:10,自引:0,他引:10
针对加热炉优人控制存在的缺陷,提出一种加热炉多模式动态优化控制策略。该控制策略包括稳态优化炉温设定值的求解和炉漫设定的动态补偿。在稳取优化中采用了单纯形法,而动态补偿则采用了以PID调节为主、以专家经验为辅的控制手段。仿真研究表明控制策略效果良好,既节约了大量能源又提高了产品质量。 相似文献
12.
Hong‐chao Ding Min‐rong Lian Xue‐ying Chen Jia‐ming Liu Zu‐chang Zhong Yu‐fan Zhang Min‐yao Zhou 《Concurrency and Computation》2019,31(10)
Costal Port, as modern transport hub and logistics nodes linking airlines, railways, highways, and other transport means, plays an important role in driving regional economic growth, while the regional growth in Port inter‐lands offer substantial support and guarantee for the port logistics. The correlation between port logistics and regional economic growth, therefore, may serve the entry point of research on the sustainable development of both Shenzhen and its port, given the positive interplay of the port logistics with regional economy, will gain a better strategic position in the Belt‐and‐Road Initiative and the Guangdong‐Hong Kong‐Macao Greater Bay Area. Gray correlation analysis and decision tree algorithm are both employed in the light of the status quo of ShenzhenPort to closely examine relevancy between the port logistics and regional economic development. The relevancy among gross industrial output value, total investment in fixed assets and gross import and export value reads 0.69:0.682:0.643, respectively, in contrast to the least relevancy of the construction industry; the gross industrial output value as well import and export value, according to the decision tree algorithms, exert decisive influences on the port logistics. 相似文献
13.
单变量决策树难以反映信息系统属性间的关联作用,构造的决策树往往规模较大。多变量决策树能较好地反映属性间的关系,得到非常简单的决策树,但使构造的决策树难以理解。针对以上两种决策树特点,提出了基于知识粗糙度的混合变量决策树的构造方法,选择知识粗糙度较小的分类属性来构造决策树。实验结果表明,这是一种操作简单、效率很高的决策树生成方法。 相似文献
14.
单变量决策树难以反映信息系统属性间的关联作用,构造的决策树往往规模较大.多变量决策树能较好地反映属性间的关系,得到非常简单的决策树,但使构造的决策树难以理解.针对以上两种决策树特点,提出了基于知识粗糙度的混合变量决策树的构造方法,选择知识粗糙度较小的分类属性来构造决策树.实验结果表明,这是一种操作简单、效率很高的决策树生成方法. 相似文献
15.
决策树技术及其当前研究方向 总被引:25,自引:1,他引:25
介绍了决策树归纳技术及其发展过程,阐述了目前最流行的决策树技术的基本方法及简化决策树的主要方法。同时介绍了决策树技术面临的挑战,目前在与其他技术结合,寻找新的构造方法,简化方法,训练与检验数据的大小及特性与其本身特性的关系,不确定环境下决策,时间复杂度与准确性之间的关系,软件实现等方面的研究,以及它在工程上的应用,展望了它的未来发展前景。 相似文献
16.
传统的决策树分类方法(如ID3和C4.5),对于相对小的数据集是很有效的。但是,当这些算法用于入侵检测这样的非常大的、现实世界中的数据时,其有效性就显得不足。采用了一种基于随机模型的决策树算法,在保证分类准确率的基础上,减少了对系统资源的占用,并通过对比实验表明该算法在对计算机入侵数据的分类上有着出色的表现。 相似文献
17.
传统的决策树分类方法(如ID3和C4.5)对于相对小的数据集是很有效的。但是,当这些算法用于入侵检测这样的非常大的数据时,其有效性就显得不足。采用了一种基于随机模型的决策树算法, 在保证分类准确率的基础上,减少了对系统资源的占用,并设计了基于此算法的分布式入侵检测模型。最后通过对比试验表明该模型在对计算机入侵数据的分类上有着出色的表现。 相似文献
18.
Most of the methods that generate decision trees for a specific problem use the examples of data instances in the decision tree–generation process. This article proposes a method called RBDT‐1—rule‐based decision tree—for learning a decision tree from a set of decision rules that cover the data instances rather than from the data instances themselves. The goal is to create on demand a short and accurate decision tree from a stable or dynamically changing set of rules. The rules could be generated by an expert, by an inductive rule learning program that induces decision rules from the examples of decision instances such as AQ‐type rule induction programs, or extracted from a tree generated by another method, such as the ID3 or C4.5. In terms of tree complexity (number of nodes and leaves in the decision tree), RBDT‐1 compares favorably with AQDT‐1 and AQDT‐2, which are methods that create decision trees from rules. RBDT‐1 also compares favorably with ID3 while it is as effective as C4.5 where both (ID3 and C4.5) are well‐known methods that generate decision trees from data examples. Experiments show that the classification accuracies of the decision trees produced by all methods under comparison are indistinguishable. 相似文献
19.