共查询到16条相似文献,搜索用时 125 毫秒
1.
2.
3.
对FTART算法的研究及改进 总被引:7,自引:1,他引:7
FTART(fieldtheory-basedART)算法结合了ART(adaptiveresonancetheory)算法、ARTMAP算法、域理论的思想,以样本在实例空间中出现的概率为启发信息修改学习中生成的分类,采用了不同于其它算法的解决样本间的冲突和动态扩大分类区域的方法.本文在对FTART算法的研究的基础上进行了改进,使算法在学习连续函数的映射时更加有效.同时给出了算法的测试结果和对测试结果的分析,测试表明,FTART算法在模式识别和连续函数映射的学习方面具有比较好的性能. 相似文献
4.
5.
着重阐述了如何使用有教师监督的自组织神经网络-模糊自适应共振映射网络(Fuzzy ARTMAP)从例子中抽取知识规则。叙述了规则抽取中的两个细节:网络修剪,即删除那些对网络抽取规则贡献不大的节点及其相连的权值;权值的量化,以使系统最终能释译成一套可使用的规则。本文对Fuzzy ARTMAP网络作了改进和简化,并用于医学上心电图(ECG)信号中室性早搏(PVC)诊断规则的自动获取,取得了比较满意的结 相似文献
6.
7.
本文讨论了一种无导师的神经模型--自适应谐振理论ART,详细分析了ART的工作原理及故障诊断过程,本文以FMS中的物料搬运机器人的故障诊断为例,详细说明了故障样本编码,ART的自学习,智能化诊断过程,并给出了仿真结果(在PC-486/33上实现),仿真结果表明ART是一种有效且实用的故障诊断方法。 相似文献
8.
本文运用多概念获取算法HMCAP,结合神经网络算法FTART提出了一种新的混合型学习模型HLM。在HLM中,符号学习与神经网络学习具有结合紧密和转换灵活等特点,并采用了新的竞争学习机制,以样本在实例空间中出现的概率为启发信息修改学习中生成的分类。 相似文献
9.
一种改进的ART1算法及其在人像识别中的应用 总被引:5,自引:0,他引:5
本文通过对自适应共振理论(ART)ART1的研究,提出了一种改进的ART1算法,这种算法不仅具有ART1算法的所有优点,而且降低了ART1算法的识别识误差。该算法在人像识别中取得了令人满意的效果。 相似文献
10.
文中提出了一种具有抗噪音能力的增量式混合学习算法IHMCAP,该算法将基于概率论的符号学习与神经网络学习相结合,通过引入FTART神经网络,不仅实现了两种不同思维层次的靠近,还成功地解决了符号学习与神经网络学习精度之间的均衡性问题。其独特的增理学习机制不仅使得它只需进行一遍增量学习即可完成对新增示例的学习,还使该算法具有较好的抗噪音能力,从而可以应用于实时在线学习任务。 相似文献
11.
12.
细胞识别是图像处理和模式识别领域的一个研究热点,有着十分广泛的应用前景。本文提出了基于神经网络算法FTART2的肺癌细胞识别方法,讨论了FTART2的网络结构、输入矢量的标准化及分类算法。用513个样本对网络进行训练,再用716个样本组成测试集进行测试,实验结果表明:本文提出的基于FTART2的肺癌细胞分类器与基于标准BP的分类器相比,具有学习速度快、分类精度高的特点。 相似文献
13.
混合型多概念获取系统的设计与实现 总被引:1,自引:0,他引:1
本文主要描述了一个增量式混合型多概念获取系统HMCAS,它提出了一个基于概率论的符号学习与神经网络学习相结合的学习算法,能从隶属于某个概念集的实例集中归纳出满足用户精度要求的,以浊合型判定树表示的概念描述。在HMCAS中,符号学习与神经网络学习具有结合紧密的转换灵活等特点,具有较高的学习效率和较强的归纳能力以及增量学习能力。HMCAS的神经网络学习可选择BP网络或FTART网络,其推理机制提供了混 相似文献
14.
快速神经网络分类学习算法的研究及其应用 总被引:2,自引:0,他引:2
提出了一种快速神经网络分类学习算法FTART2,该算法结合了自适应谐振理论和域理论的优点,学习速度快、归纳能力强、效率高,用UCI机器学习数据库中的两个数据集对FTART2与目前最流行的BP进行比较测试,实验结果表明前者的分类精度与学习速度均优于后者,还将FTART2算法应用于石油地质储层分析领域,取得了很好的效果。 相似文献
15.
一种具有容错能力的自适应神经网络分类器 总被引:2,自引:0,他引:2
在国内外容错型神经网络的基础上,提出了一种具有容错能力的自适应神经网络FTART4。该算法针对解决多点断路故障容错性的难点,提出了一种独特的增加网络冗余的方法,通过确定故障敏感点达到了冗余度与容错性的平衡。同时对FTART4神经网络解决多点断路故障问题进行了严谨的形式化分析,给出了FTART4算法的完整描述。采用通用的神经网络测试数据对算法进行了测试,实验结果表明该方法取得了较好的效果。 相似文献