首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 265 毫秒
1.
总线桥协议(BusBridgeProtocal—BBP)是用于构造并行计算机群的多计算机互连协议,它于1991年提出,其初衷是设计一种连接采用不同总线标准的计算设备和控制设备的中继协议.几年的研究和工程实践结果表明,基于BBP构造可扩展并行计算机群系统能够获得较高的性能价格比.本文介绍了基于BBP的总线桥多机互连网的工作方式,分析了总线桥互连网阻塞概率、建立时延及有效利用率等的关键特性参数及其相互关系,为可扩展并行机群系统BBPSPC的研制提供了理论依据.  相似文献   

2.
采用Modbus协议的啤酒厂发酵罐界面与控制程序   总被引:2,自引:0,他引:2  
Modbus与Modbus Plus是美国Modicon公司的可编程序控制器(PLC)之间进行通讯的这一标准,许多智能仪表、仪器、装置(例如变频调速器)都配用这种可选的通讯附件,本文介绍了采用Modbus与Modbus Plus协议开发工控上位机(PC)与下位机(PLC)间的通讯程序的方法,并在此基础上发展界面与控制程序,此程序已成功地应用于某啤酒厂发酵罐的控制上。  相似文献   

3.
补丁铺子     
3dfx Voodoo Banshee显卡最新驱动 Steve Margelis版 For Win9x 下载网址: http://file2.mydrivers.com/display/Vb-W9x_3dfxTools.zip 这是Beyond3D网站发布的非官方版本的 Banshee驱动,具有LOD bias(V5驱动的功能)功能!它包括 DirectX7内核和最新的Glide(tm) 2. X 2. 61. 00. 0613版, Glide 3. X 3. 10. 00. 0613版, 3dfxTools 2.4.0…  相似文献   

4.
1总线结构的类型 PC机的系统总线可分 为 ISA、EISA、MCA、VESA、PCI、AGP等多种标准。 ( 1)ISA/EISA/MCA/VESA总线 ISA(Industry Standard Architecture),是IBM公司为286/AT电脑制定的总线工业标准,也称为AT标准。ISA总线的影响力非常大,直到现在仍存在大量ISA设备。 EISA(Extended Industry  Architecture),是 EISA集团(由 Compaq、HP、AST等组成)专为32位CPU设计的总线…  相似文献   

5.
Visual Basic(VB)是Microsoft公司推出的Windows应用程序开发工具,它继承了Basic简便易学的优点,同时具有友好的可视化编程界面,编程方便效率较高,而且功能强大,因此得到广泛应用。本文就是利用VB串行通讯的MSComm控件,实现对上位机转化的图形数据通过单片机在LED彩色大屏幕上加以显示,编者无须深入串行口编程,只需设置几个参数就可以按查询或中断方式实现串行通讯,使得使用VB在Windows环境下的串行通讯编程非常简便。1VB通讯控件简介 以VB6.0专业版为例,通讯控…  相似文献   

6.
本文介绍了上位机(NOS)用VB提供的Mscomm通讯控件完成与下位机的可靠通讯, 下位机以C语言编写的发进程序完成向上位机发送数据的功能。  相似文献   

7.
本文介绍了在Windows3.x下利用VisualBasic(VB)4.0高级程序设计语言开发多媒体程序的几种方法,首先从MCI指令入手,阐述了其基本含义,然后依次介绍了利用VB本身的MDI.VBX,动态连接库MMSYSTEM.DLL,AAPLAY.DLL以及SOUND.DRV来开发多媒体程序的方法,本文对于利用VB开发多媒体程序具有重要的指导意义。  相似文献   

8.
本语文介绍了上位机(NOS)用VB提供的Mscomm通讯控件完成与下位机的可靠通讯,下位机以C语言编写的发送程序完成向上位机发送数据的功能。  相似文献   

9.
根据计算机监控系统的特点,用Visual Basic6.0开发通用的计算机监控系统测试软件。该软件既能充当主控机,又能充当控机,还可用来破译通讯协议,可靠性高,实用性强。同时对Microsoft的MSComm通讯控件中的Bug作了修正。  相似文献   

10.
ViewPerf测试 ViewPerf是SPEC公司OPC(OpenGL Perfor-mance Characterization)项目组的主要OpenGL测试工具。目前OPC项目组的主席是3Dlabs公司的BillLiceaKane。ViewPerf是个老牌的OpenGL测试软件包,它的最新版本是6.12,也就是我们这次采用的版本。ViewPerf6.12由6个项目组成,分别是AWadvs-04、DRV-07、DX-06、Light-04、MedMCAD01和ProCDRS-03,它们分别用来…  相似文献   

11.
决策树是一种有效用于分类的数据挖掘方法.在决策树构造算法中,粗集理论的相对核已被应用于解决多变量检验中属性的选择问题.考虑到决策树技术和粗集的优缺点,将二者结合起来,先对每个结点包含的属性个数加以限制,再用属性相关度和De Mantaras距离函数选择相关的属性组合作为属性选择的标准,给出一种新的构造算法.该算法的优点是能有效降低树的高度,而且增强了分类规则的可读性.  相似文献   

12.
噪声数据降低了多变量决策树的生成效率和模型质量,目前主要采用针对叶节点的剪枝策略来消除噪声数据的影响,而对决策树生成过程中的噪声干扰问题却没有给予关注。为改变这种状况,将基本粗糙集(rough set,RS)理论中相对核的概念推广到变精度粗糙集(variable precision roughset,VPRS)理论中,并利用其进行决策树初始变量选择;将两个等价关系相对泛化的概念推广为两个等价关系多数包含情况下的相对泛化,并利用其进行决策树初始属性检验;进而给出一种能够有效消除噪声数据干扰的多变量决策树构造算法。最后,采用实例验证了算法的有效性。  相似文献   

13.
Functional Trees   总被引:1,自引:0,他引:1  
In the context of classification problems, algorithms that generate multivariate trees are able to explore multiple representation languages by using decision tests based on a combination of attributes. In the regression setting, model trees algorithms explore multiple representation languages but using linear models at leaf nodes. In this work we study the effects of using combinations of attributes at decision nodes, leaf nodes, or both nodes and leaves in regression and classification tree learning. In order to study the use of functional nodes at different places and for different types of modeling, we introduce a simple unifying framework for multivariate tree learning. This framework combines a univariate decision tree with a linear function by means of constructive induction. Decision trees derived from the framework are able to use decision nodes with multivariate tests, and leaf nodes that make predictions using linear functions. Multivariate decision nodes are built when growing the tree, while functional leaves are built when pruning the tree. We experimentally evaluate a univariate tree, a multivariate tree using linear combinations at inner and leaf nodes, and two simplified versions restricting linear combinations to inner nodes and leaves. The experimental evaluation shows that all functional trees variants exhibit similar performance, with advantages in different datasets. In this study there is a marginal advantage of the full model. These results lead us to study the role of functional leaves and nodes. We use the bias-variance decomposition of the error, cluster analysis, and learning curves as tools for analysis. We observe that in the datasets under study and for classification and regression, the use of multivariate decision nodes has more impact in the bias component of the error, while the use of multivariate decision leaves has more impact in the variance component.  相似文献   

14.
基于主成分分析的多变量决策树构造方法   总被引:3,自引:0,他引:3  
大多数决策树构造方法在每个节点上只检验单个属性,这种单变量决策树忽视了信息系统中广泛存在的属性间的关联作用,而且修剪时往往代价很大。针对以上两点,提出了一种基于主成分分薪的多变量决策树构造方法,提取信息系统中的若干主成分来构造决策树。实验结果表明,这是一种操作简单,效率很高的决策树生成方法。  相似文献   

15.
一种多变量决策树方法研究   总被引:1,自引:1,他引:0  
单变量的决策树算法造成树的规模庞大,规则复杂,不易理解.本文结合粗糙集原理中的相对核及加权粗糙度的方法,提出了一种新的多变量决策树算法.通过实例表明,本文的多变量决策树方法产生的决策树比传统的ID3算法构造的决策树更简单,具有较好的分类效果.  相似文献   

16.
一种多变量决策树的构造与研究   总被引:3,自引:0,他引:3       下载免费PDF全文
单变量决策树算法造成树的规模庞大、规则复杂、不易理解,而多变量决策树是一种有效用于分类的数据挖掘方法,构造的关键是根据属性之间的相关性选择合适的属性组合构成一个新的属性作为节点。结合粗糙集原理中的知识依赖性度量和信息系统中条件属性集的离散度概念,提出了一种多变量决策树的构造算法(RD)。在UCI上部分数据集的实验结果表明,提出的多变量决策树算法的分类效果与传统的ID3算法以及基于核方法的多变量决策树的分类效果相比,有一定的提高。  相似文献   

17.
分支合并对决策树归纳学习的影响   总被引:2,自引:0,他引:2  
王熙照  杨晨晓 《计算机学报》2007,30(8):1251-1258
传统的决策树构建方法,由于其选择扩展属性时的归纳偏置,导致属性值较多的属性总会被优先选择,从而导致树的规模过大,并且泛化能力下降,因此需对其进行简化.剪枝是简化的一种,分为预剪枝和后剪枝.该文主要针对预剪枝中的分支合并进行研究.文中研究了分支合并对决策树归纳学习的影响;具体讨论了在决策树的产生过程中,选择适当的分支合并策略对决策树进行分钟合并处理后,能否增强树的可理解性,减少树的复杂程度以及提高树的泛化精度;基于信息增益,分析了分支合并后决策树的复杂程度,设计实现了一种基于正例比的分支合并算法SSID和一种基于最大增益补偿的分支合并算法MCID.实验结果显示:SSID和MCID所得到的决策树在可理解性和泛化精度方面均明显优于See5.  相似文献   

18.
单变量决策树难以反映信息系统属性间的关联作用,构造的决策树往往规模较大.多变量决策树能较好地反映属性间的关系,得到非常简单的决策树,但使构造的决策树难以理解.针对以上两种决策树特点,提出了基于知识粗糙度的混合变量决策树的构造方法,选择知识粗糙度较小的分类属性来构造决策树.实验结果表明,这是一种操作简单、效率很高的决策树生成方法.  相似文献   

19.
单变量决策树难以反映信息系统属性间的关联作用,构造的决策树往往规模较大。多变量决策树能较好地反映属性间的关系,得到非常简单的决策树,但使构造的决策树难以理解。针对以上两种决策树特点,提出了基于知识粗糙度的混合变量决策树的构造方法,选择知识粗糙度较小的分类属性来构造决策树。实验结果表明,这是一种操作简单、效率很高的决策树生成方法。  相似文献   

20.
Multivariate Decision Trees   总被引:24,自引:0,他引:24  
Unlike a univariate decision tree, a multivariate decision tree is not restricted to splits of the instance space that are orthogonal to the features' axes. This article addresses several issues for constructing multivariate decision trees: representing a multivariate test, including symbolic and numeric features, learning the coefficients of a multivariate test, selecting the features to include in a test, and pruning of multivariate decision trees. We present several new methods for forming multivariate decision trees and compare them with several well-known methods. We compare the different methods across a variety of learning tasks, in order to assess each method's ability to find concise, accurate decision trees. The results demonstrate that some multivariate methods are in general more effective than others (in the context of our experimental assumptions). In addition, the experiments confirm that allowing multivariate tests generally improves the accuracy of the resulting decision tree over a univariate tree.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号