共查询到15条相似文献,搜索用时 78 毫秒
1.
提出一种量子神经网络模型及算法.首先借鉴受控非门的含义提出一种受控量子旋转门,基于该门的物理意义,提出一种量子神经元模型,该模型包含对输入量子比特相位的旋转角度和对旋转角度的控制量两种设计参数;然后基于上述量子神经元提出一种量子神经网络模型,基于梯度下降法详细设计了该模型的学习算法:最后通过模式识别和时间序列预测两个仿... 相似文献
2.
为提高神经网络的逼近能力,提出一种基于受控Hadamard门设计的量子神经网络模型及算法.该模型输入为多维离散序列,可用矩阵描述,行数为输入节点数,列数为序列长度.模型为3层结构,隐层为量子神经元,输出层为普通神经元.量子神经元由量子旋转门和多位受控Hadamard门组成,利用多位受控Hadamard门中目标量子位的输出向输入端的反馈,实现对输入序列的整体记忆,利用受控Hadamard门中控制位和目标位之间的受控关系获得量子神经元的输出.基于量子计算理论设计了该模型的学习算法.该模型可高效地获取输入序列的特征.实验结果表明,当输入节点数和序列长度满足一定关系时,该模型明显优于普通BP神经网络. 相似文献
3.
一种量子神经网络模型学习算法及应用 总被引:4,自引:0,他引:4
提出一种量子神经网络模型及学习算法. 首先基于生物神经元信息处理机制和量子计算原理构造出一种量子神经元, 该神经元由加权、聚合、活化、激励四部分组成. 然后由量子神经元构造出三层量子神经网络模型, 其输入和输出为实值向量, 权值和活性值为量子比特. 基于梯度下降法构造了该模型的超线性收敛学习算法. 通过模式识别和函数逼近两种仿真结果表明该模型及算法是有效的. 相似文献
4.
为提高神经网络的逼近能力,提出一种各维输入为离散序列的量子神经网络模型及算法.该模型为3层结构,隐层为量子神经元,输出层为普通神经元.量子神经元由量子旋转门和多位受控非门组成,利用多位受控非门中目标量子位的输出向输入端的反馈,实现对输入序列的整体记忆,利用受控非门输出中多位量子比特的纠缠获得量子神经元的输出.基于量子计算理论设计该模型的学习算法.该模型可从宽度和深度两方面获取输入序列的特征.仿真结果表明,当输入节点数和序列长度满足一定关系时,该模型明显优于普通神经网络. 相似文献
5.
6.
提出一种量子BP网络模型及改进学习算法,该BP网络模型首先基于量子学中一位相移门和两位受控非门的通用性,构造出一种量子神经元,然后由该量子神经元构造隐含层,采用梯度下降法进行学习。输出层采用传统神经元构造,采用基于改进的带动量自适应学习率梯度下降法学习。在UCI两个数据集上采用该模型及算法,实验结果表明该方法比传统的BP网络具有较好的收敛速度和正确率。 相似文献
7.
本文首先在介绍量子计算基本理论的基础上,探讨其在神经网络中的融合与应用;同时针对典型网络模型进行了具体的可行性研究与总结。最后就其两者的融合后的实际应用进行了深入研究。 相似文献
8.
9.
10.
11.
12.
13.
An evolutionary optimization method over continuous search spaces, differential evolution, has recently been successfully
applied to real world and artificial optimization problems and proposed also for neural network training. However, differential
evolution has not been comprehensively studied in the context of training neural network weights, i.e., how useful is differential
evolution in finding the global optimum for expense of convergence speed. In this study, differential evolution has been analyzed
as a candidate global optimization method for feed-forward neural networks. In comparison to gradient based methods, differential
evolution seems not to provide any distinct advantage in terms of learning rate or solution quality. Differential evolution
can rather be used in validation of reached optima and in the development of regularization terms and non-conventional transfer
functions that do not necessarily provide gradient information.
This revised version was published online in June 2006 with corrections to the Cover Date. 相似文献
14.
15.
提出了一种多项式泛函网络运算新模型,来求解任意数域或环上多项式运算问题。同时给出了基于泛函网络求任意一元多项式倍式的学习算法,而网络的参数利用解线性方程组方法来完成。实验结果表明,这种神经计算方法,相对传统方法,不但能够获得问题的精确解,而且可获得问题的近似解。这给工程计算软件的二次开发提供了有效方法。 相似文献