共查询到10条相似文献,搜索用时 15 毫秒
1.
针对训练多层激励函数量子神经网络(MAF-QNN)时权值与量子间隔的目标函数存在冲突,导致收敛速度和网络性能下降的问题,该文提出一种改进的量子神经网络的训练算法。通过设计输出均方误差和这一目标函数对权值和量子间隔进行统一训练,同时引入Levenberg-Marquardt(LM)算法降低目标函数陷入局部极小值的概率,实现了对量子神经网络的高效训练。实验结果表明,该文提出的训练算法有效减少了迭代次数,显著提高了网络收敛精度,可应用于数据分类、函数逼近等场合,扩展了多层激励函数量子神经网络的应用领域。 相似文献
2.
3.
传统的量子神经网络的训练方法容易使得算法陷入局部极小值,将Artificial Bee Colony(ABC)算法引入到原训练算法中,并且对人工蜂群算法进行改进.利用改进后的人工蜂群算法来优化传统量子神经网络,使优化后的量子神经网络具有结构简单、参数少、收敛速度快和可跳出局部极小值等优点.实验结果表明,相比原训练算法该优化算法提高了量子神经网络收敛解的精度. 相似文献
4.
5.
为了克服传统频谱感知的缺点,提升在低信噪比下的频谱检测性能,提出了一种改进的量子神经网络频谱感知算法。通过提取授权用户信号的特征参数,对量子神经网络进行训练,获取授权信号中数据的不确定性并加以存储、记忆,从而实现周围环境\"频谱机会\"的检测。为了提高量子神经网络的收敛性、稳定性,对算法进行改进,采用三层Josephson函数作为激励函数,缩短激励函数的饱和区,减少训练过程中出现\"假饱和\"现象;并在原有的学习目标函数中加入约束条件,使网络权值的调整和量子间隔的更新在学习过程中的相互影响降到最低。通过实验仿真得出,改进后的量子神经网络算法与改进前的算法、BP神经网络检测算法相比,不但在网络收敛速度和稳定性上有了明显提升,而且在低信噪比情况下具有更高的检测概率。 相似文献
6.
为提高神经网络的逼近和预测能力,提出一种各维输入为离散序列的量子衍生神经网络模型及算法。该模型为三层结构,隐层为量子衍生神经元,输出层为普通神经元。量子衍生神经元由量子旋转门和多位受控旋转门组成,利用多位受控旋转门中目标量子位的输出向输入端的反馈,实现对输入序列的整体记忆,利用受控旋转门输出中多位量子比特的纠缠获得量子衍生神经元的输出。基于量子计算理论设计了该模型的学习算法。该模型可从宽度和深度两方面获取输入序列的特征。仿真结果表明,当输入节点数和序列长度满足一定关系时,该模型明显优于普通神经网络。 相似文献
7.
一种量子竞争学习算法 总被引:3,自引:2,他引:3
量子计算(Quantum Computation)以其独特的性能引起广泛瞩目。本文尝试将量子计算与传统的神经计算结合起来,通过设计若干个量子算子来构造Hamming神经网络的量子对照物,从而提出一种量子竞争学习算法(Quantum Competitive Learning Algorithm,QCLA),它能够实现模式分类和联想记忆。 相似文献
8.
9.
基于梯度下降法的RBF网络训练算法收敛速度较慢、易陷入局部最优,并且算法性能受初始值的影响较大.基于粒子群的RBF网络训练算法能够克服梯度下降法易陷入局部最优的缺点,但局部寻优能力不如梯度下降法.分析两种算法的优缺点,提出一种粒子群算法与梯度下降法结合的组合训练方法并用于RBF神经网络的训练.通过实验证明所提出的组合算... 相似文献
10.
为了克服标准BP神经网络在数据预测中存在的缺陷,提出了一种结合基因表达武编程和BP神经网络算法的混合算法.该算法分为两个阶段,第一阶段,利用GEP独特的编码方式来代替随机设定神经网络结构的选择和初始权阚值的设定;第二阶段,用梯度下降法在已经用基因表达式编程方法确定好的搜索空问中和网络结构中对网络进行进一步的精确训练.将此混合算法用于测井曲线的预测中,同时将结果和基因表达式编程方法、BP神经网络方法进行了比较,证明了该算法可以克服BP神经网络的缺陷,并且优化后的BP神经网络收敛速度快,预测精度高. 相似文献