论文部分内容阅读
非线性共轭梯度法具有迭代简单、存储小、计算快等优点,因此这类方法是求解大规模无约束最优化问题的一类非常重要的方法.为了获得理论性质和数值结果更好的共轭梯度法,基于Dai-Kou方法,在改进Wolfe线搜索下,本文提出了以下几种具有全局收敛性的修正Dai-Kou共轭梯度法. 第1章,介绍一般共轭梯度算法的基本概念,几个经典共轭梯度法以及共轭梯度法的研究现状. 第2章,结合DK法中的最佳逼近思想,使共轭梯度法的搜索方向逼近于修正的无记忆BFGS法的搜索方向,给出了一类新的DK共轭梯度法(简称NDK方法),证明了其在改进Wolfe线搜索下当目标函数为一致凸函数时具有全局收敛性.更进一步的,基于DK+方法的修正思想,对新的DK法做类似的截断,给出一类修正的共轭梯度法(简称NDK+方法),证明了其在改进Wolfe线搜索下当目标函数为一般函数时的全局收敛性.数值结果表明NDK方法略优于DK方法. 第3章,结合两个修正的割线条件,对NDK方法做出相应的修正,给出了两类修正的共轭梯度法(简称MNDK1和MNDK2方法),在改进Wolfe线搜索下,证明了MNDK1方法和MNDK2方法的全局收敛性.数值结果表明MNDK1和MNDK2方法略优于DK方法. 第4章,结合谱共轭梯度法的迭代格式,对NDK方法做出相应的修正,提出一类无需证明就不依赖线搜索满足充分下降性的谱共轭梯度法(简称NDKS方法),且NDKS方法在改进Wolfe线搜索下对一致凸函数具有全局收敛性.为了证明对一般函数的全局收敛性,提出一类修正的NDKS方法(简称NDKS+方法),NDKS+方法在改进Wolfe线搜索下对一般函数具有全局收敛性.数值结果表明NDKS+方法略优于DK方法.