排序方式: 共有5条查询结果,搜索用时 0 毫秒
1
1.
隐层神经元冗余是提高神经网络容错性的一个有效的方法,在神经网络分类器的容错设计中,这一方法得到了良好的效果,对单故障可以做到完全容错.但是这一应用仅仅只能应用于输出层为硬限幅函数的前向网络,并且只证明了对网络中单故障有效.在实际应用中,网络中的各个节点和权值的故障往往是普遍存在的,因此本文提出了一种隐层冗余结构,对普遍故障存在下隐层神经元冗余容错方法做以评估,得出的结论是应用这种隐层神经元冗余结构可以减小网络的全局故障率;并提出了针对一般前向神经网络的实用的隐层神经元容错方法,这种方法可以有效地提高网络在普遍故障下的容错能力. 相似文献
2.
多层前向神经网络(MLP)的容错性有两种主要的研究方法:改进算法和部件冗余.前一种方法需要耗用大量的学习时间,对大型网络是不适用的.Phatak曾提出了用后一种方法进行MLP的单故障容错的一种网络结构,但是冗余部件数庞大,尤其对于大型网络.本文提出了一种新的冗余体系结构,针对单隐层MLP的单故障容错问题.这种体系结构充分考虑了不同权值的不同重要度,解决了原体系结构的仅值瓶颈问题,可以显著减少冗余部件数,尤其对于大型网络,更具有优越性. 相似文献
3.
Behnam提出的SC算法和文中提出的rehidden算法是两种典型的前向神经网络容错算法,前者改进BP算法进行学习,后者对已学习的网络进行隐层节点冗余.这两种算法各有优缺点.文中对这两种算法进行了仿真实验分析,最终得到了每种算法适用的网络规模和硬件条件,在不同环境下应采用不同的方法才能得到可行的容错网络.最后还对SC算法的一些改进进行了讨论. 相似文献
4.
多层感知器(MLP)的容错性传统上采用改进算法和部件冗余方法。该文提出了一种动态冗余BP算法,这种方法在传统的带冲量项的自适应BP算法的学习过程中,根据各权值重要度的不同选取重要的权值进行冗余处理。该算法能有效地提高网络的容错能力,与学习中注入故障这一典型的容错改进算法相比,尽管容错能力并不突出,但相对可节省大量的学习时间。 相似文献
5.
首先提出RBF隐层节点冗余结构,然后分别分析在单故障和普遍故障下的网络特性,并证明了这种结构可以有效容错,最后提出了实用的隐层冗余方法,并经仿真实验证明是可行的。 相似文献
1