共查询到10条相似文献,搜索用时 31 毫秒
1.
2.
前向神经网络的神经元分层逐个线性优化快速学习算法 总被引:1,自引:0,他引:1
本文提出了一种新的前向神经网络快速分层学习算法.在此学习算法中,其优化策略为对输出层和隐层神经元的连接权值交替优化.对输出层权值优化算法采用基于广义逆的最小二乘递推算法,对隐层神经元的连接权值采取则对每个神经元逐个进行优化,而且采用正交变换加快每一步学习的计算速度和提高算法的数值稳定性.当学习过程停滞时采用随机扰动的方法摆脱过早收敛.数值实验表明,与BP动量因子法、牛顿型方法和现有的分层优化算法相比,新算法不仅学习速度快学习时间短,而且当网络规模增大时仍然比较有效. 相似文献
3.
剪枝算法是一种通过简化网络结构来避免过拟合的有效方法之一。文章依据Shannon熵原理定义了神经网络隐层节点输出的拟熵,该熵与Shannon熵对不确定性的描述具有相同的效果,但克服了Shannon熵中无定义和零值的缺点。将交叉熵和隐节点输出拟熵作为目标函数,并采用熵周期的策略对网络参数进行寻优,通过删除合并隐层神经元达到简化网络结构的目的。仿真结果表明,此方法简单易行,对BP网络的泛化性能有较好的改善。 相似文献
4.
神经网络的剪枝有利于网络结构的简化,而作为剪枝算法中的比较重要的相关性剪枝算法,在计算了隐层节点输出的线性相关性和方差后,对于如何根据线性相关值和方差值删除节点并没有给出明确的界限。文章通过研究神经网络的相关性剪枝算法,给出一种以网络的误差传递为思想,根据方差值删除节点的方法,并通过实验证明,该方法不仅能够有效的简化网络结构,保证网络精度,而且计算简单。 相似文献
5.
结构优化的RBF神经网络学习算法 总被引:9,自引:0,他引:9
文章提出了一种自动“删减”隐层神经元的RBF神经网络学习算法。模拟结果表明,该算法训练的RBF网络不仅结构得以优化,同时性能良好,可能成功地应用于模式分类和时间序列预测问题中。 相似文献
6.
通过分析标准BP算法的原理,可以发现BP标准算法存在着易形成局部极小而非全局最优;训练次数多使得学习效率低,收敛速度慢;隐节点的选取缺乏理论指导;通过在标准BP算法中引入加动量项法来优化BP算法。实验结果表明,该有效地提高了BP算法的迭代次数,减少误差。 相似文献
7.
把二进神经网络学习算法推广至一般情形,利用汉明球及立方体的空间覆盖生成隐层神经元并对空间集合的相交、汉明球与低维空间的笛卡尔积在神经网络中的表现形式进行了深入探讨,得出几个旨在提高学习效率和减少布尔函数实现复杂性的有用结论,并融合形成完整的学习算法。 相似文献
8.
通过分析标准BP算法的原理,可以发现BP标准算法存在着易形成局部极小而非全局最优;训练次数多使得学习效率低,收敛速度慢;隐节点的选取缺乏理论指导;通过在标准BP算法中引入加动量项法来优化BP算法。实验结果表明,该有效地提高了BP算法的迭代次数,减少误差。 相似文献
9.
以线性无关的基函数作为隐层神经元的激励函数,构建了一类基函数神经网络,且推导出该类神经网络的学习算法;在此基础上,设计了一种基于指数增长和折半删减的快速最小隐神经元数目确定算法.仿真实验表明,此算法能自适应地、快速有效地确定网络最小隐层神经元数目. 相似文献
10.
认知无线网络中一种基于蚁群优化的频谱分配算法 总被引:1,自引:0,他引:1
针对认知无线电中的频谱分配问题,该文提出一种基于蚁群优化的频谱分配方法。该方法在授权用户和认知用户共存的认知网络模型中,通过蚁群访问各个认知节点,并释放信息素,从而实现概率型的全局搜索的并行频谱分配算法。与传统的频谱分配方式比较,该算法能够进行增强型学习积累,快速收敛到最优路径,从而获得了最优的平均信道效益。文中对该算法进行了分析和说明,并通过仿真证明了算法的有效性和稳定性。 相似文献