排序方式: 共有45条查询结果,搜索用时 7 毫秒
1.
竞争型神经网络存在"死点"问题,某些神经元在竞争中可能始终未能获胜而成为"死神经元",不仅造成神经元的浪费,而且造成训练误差偏大,无法达到训练误差的精度要求,不能很好完成它所担负的聚类或分类任务.针对该问题,研究竞争型神经网络的切入点,深入探讨了LVQ神经网络并且通过引入阈值学习规则,均衡神经元获胜的机会,较好地解决了该类网络在遇到"死"点时训练误差偏大的问题,仿真实验结果表明了该方法的有效性. 相似文献
2.
连续属性的离散化是粗糙集理论的主要问题之一.针对粗糙集理论只能处理离散数据的局限性,提出基于属性决策表和竞争型网络的连续属性离散化方法.首先使用条件属性与决策属性之间的决策关系来度量条件属性的重要性,并据此对条件属性按照重要性由小到大排序,然后利用竞争型网络分类功能找到连续属性的断点,从而实现了对连续属性的离散化.算法分析和实验证明算法是切实可行的. 相似文献
3.
4.
在人工智能传统的搜索方法中,一直是将OPEN表和CLOSED表分开的。这不仅增加了搜索算法的复杂性,久而久之,也许禁锢了人们的思想。文章试图改变这种状况,提出了一种与众不同的新思路,巧妙地将OPEN表和CLOSED表合二为一,减少了一些工作量,在一定程度上降低了算法的复杂性。 相似文献
5.
6.
7.
8.
形态学联想记忆(Morphological Associative Memories,MAM)的存储性能是衡量形态学联想记忆能力大小的重要指标。然而,迄今为止,对形态学联想记忆的存储性能,主要是对异联想形态学联想记忆(hetero-MAM)的存储性能的定量分析和定性刻画并未完成。这是一个悬而未决的理论问题,也是一个MAM应用的实际问题。针对这一问题开展研究,站在概率论的角度,提出一个MAM存储性能的概率模型,并进行了证明。通过定量分析和定性讨论,取得一致结论。研究和分析表明,hetero-MAM的存储性能受到输入模式向量维数n、输出模式向量维数m、以及输入、输出模式对数目K的影响,且三者的影响程度不同。提出的概率模型,对形态学联想记忆的研究、分析、设计和应用,具有一定的启发和帮助。 相似文献
9.
一类新颖的粒子群优化算法 总被引:17,自引:1,他引:17
粒子群优化(PSO)是一类有效的随机全局优化技术。它利用一个粒子群搜索解空间,每个粒子表示一个被优化问题的解,通过粒子间的相互作用发现复杂搜索空间中的最优区域。提出一类新颖的PSO算法,该算法在基本PSO算法的粒子位置更新公式中增加了一个积分控制项。积分控制项根据每个粒子的适应值决定粒子位置的变化,改善了PSO算法摆脱局部极小点的能力。另外,该算法增加了限制搜索空间范围的机制,这对某些函数优化问题是必需的。用5个基准函数做的对比实验结果显示,该算法优于基本PSO算法以及自适应修改惯性因子的PSO算法。 相似文献
10.
提高神经网络泛化能力的研究 总被引:2,自引:0,他引:2
从模糊理论的角度出发,提出了一种改进神经网络泛化能力的新方法—“缩放法”。这种方法通过对输入向量的缩放处理,来缩小或模糊化训练样本和新的模式之间的差别,从而使神经网络的泛化能力得以提高。文中提出的新算法—α算法,可以找到合适的缩放因子,进而得到泛化能力更强的新网络。一些实验例证了“缩放法”和α算法的有效性,并从理论上对其进行了初步分析和讨论。 相似文献