共查询到14条相似文献,搜索用时 46 毫秒
1.
基于利用修正HS方法提高算法效率和利用DY方法保证算法的全局收敛性等思想,分别在不同条件下提出两种新的混合共轭梯度法求解大规模无约束优化问题.在一般Wlolfe线搜索下不需给定下降条件,证明了两个算法的全局收敛性,数值实验表明所提出算法的有效性,特别对于某些大规模无约束优化问题,数值表现较好. 相似文献
2.
本文在校正的DFP方法基础上,提出了一个新的三项梯度下降算法.该算法能够保证在每一步迭代中具有充分下降性,并在强Wolfe线搜索条件下对一般函数具有全局收敛性.数值试验表明它对给定的问题是非常有效的、稳定的. 相似文献
3.
本文提出了一种求解无约束优化问题的修正PRP共轭梯度法.算法采用一个新的公式计算参数,避免了产生较小的步长.在适当的条件下,证明了算法具有下降性质,并且在采用强Wolfe线搜索时,算法是全局收敛的.最后,给出了初步的数值试验结果. 相似文献
4.
在DY共轭梯度法的基础上对解决无约束最优化问题提出一种改进的共轭梯度法.该方法在标准wolfe线搜索下具有充分下降性,且算法全局收敛.数值结果表明了该算法的有效性.最后将算法用于SO2氧化反应动力学模型的非线性参数估计,获得满意效果. 相似文献
5.
一类修正的DY共轭梯度法及其全局收敛性 总被引:2,自引:0,他引:2
本文提出了一类求解无约束优化问题的修正DY共轭梯度法.算法采用新的迭代格式,每步迭代都可自行产生一个充分下降方向.采用Wolfe线搜索时,证明了全局收敛性.数值实验结果验证了算法是有效的. 相似文献
6.
本文通过结合MFR方法与MDY方法,对搜索方向进行调整,提出了一类求解无约束优化问题的修正DY共轭梯度法,该法在每步迭代都能不依赖于任何搜索而自行产生充分下降方向.在适当的条件下,证明了在Armijo搜索下对于非凸的优化问题,本文算法是全局收敛的.数值实验表明本文算法是有效的. 相似文献
7.
周光明 《计算机工程与应用》2007,43(11):64-65
本文对无约束优化问题提出了一种新的非标准共轭梯度算法,该算法的搜索方向类似于曲线搜索算法的方向。证明了新算法的全局收敛性,并通过数值模拟验证了该算法是有效的和快速的。 相似文献
8.
基于共轭和下降性质,提出了一种强迫下降的三项共轭梯度法,证明了算法在Wolfe线搜索下的全局收敛性,并进行了数值比较实验.理论与数值试验结果表明这个算法是一个值得研究的方法. 相似文献
9.
本文基于修正的共轭梯度公式,提出了一个具有充分下降性的共轭梯度算法,该算法不需要线搜索,其步长由固定的公式给出.某种程度上,该算法利用了目标函数的二次信息,对目标函数的(近似)二次模型采取了精确线搜索,每步都只需要计算一次梯度值,特别适合大规模优化计算.本文还给出了该算法的全局收敛性分析,并得到强收敛结果.数值实验表明这种算法是很有应用前景的. 相似文献
10.
11.
This paper establishes a spectral conjugate gradient method for solving unconstrained optimization problems, where the conjugate parameter and the spectral parameter satisfy a restrictive relationship. The search direction is sufficient descent without restarts in per-iteration. Moreover, this feature is independent of any line searches. Under the standard Wolfe line searches, the global convergence of the proposed method is proved when holds. The preliminary numerical results are presented to show effectiveness of the proposed method. 相似文献
12.
刘陶文 《数值计算与计算机应用》2001,22(2):106-112
§1.引言 共轭梯度法是求解无约束优化问题min f(x)的一类非常重要且有效的方法.当目标函数f(x)连续可做时,其迭代格式为这里 qk= f(xk),dk是一个搜索方向.当 f(k)为凸二次函数时,适当选择系数 Bk-1,使得dk与dl,d2,…,dk-1关于f(x)的Hesse矩阵共轭。ak是由精确线性搜索确定的步长.共轭梯度法具有二次终止性.然而当目标函数为一般的非线性函数时,即使在精确线性搜索下,各共轭梯度法的收敛性也很难保证.[1,2]证明了 FR方法在精确线性搜索下仍具有全局收敛性.然… 相似文献
13.
14.
Conjugate gradient methods are a class of important methods for unconstrained optimization problems, especially when the dimension is large. In this paper, we study a class of modified conjugate gradient methods based on the famous LS conjugate gradient method, which produces a sufficient descent direction at each iteration and converges globally provided that the line search satisfies the strong Wolfe condition. At the same time, a new specific nonlinear conjugate gradient method is constructed. Our numerical results show that the new method is very efficient for the given test problems by comparing with the famous LS method, PRP method and CG-DESCENT method. 相似文献