导读:本文包含了非线性极大极小问题论文开题报告文献综述及选题提纲参考文献,主要关键词:非线性极大极小问题,神经网络,拉格朗日函数,极大熵
非线性极大极小问题论文文献综述
于金金[1](2019)在《解非线性极大极小问题的神经网络方法研究》一文中研究指出众所周知,极大极小问题在优化领域中占有举足轻重的地位,很多决策问题都可以转化为相应的极大极小问题。因此研究如何求解极大极小问题具有一定的理论价值和实际应用价值。自从传统的求解极大极小问题的方法暴露出越来越多的缺点后,人们开始寻找新方法、新途径来更加有效地求解极大极小问题。由于神经网络具有大规模并行处理和快速收敛的特点,为优化问题的求解提供了一种新思路,因此用神经网络的方法来求解极大极小问题引起了越来越多学者的关注。本文介绍了两种求解非线性极大极小问题的神经网络方法,并且建立了相应的求解它们的神经网络模型。全文共分为五章。第一章主要介绍非线性极大极小问题的模型、优化神经网络产生的科学背景和研究进展、基于神经网络模型的极大极小问题的研究现状和本文主要研究内容。第二章是预备知识。主要介绍与神经网络模型相关的动力系统、优化问题的最优性条件、微分方程的稳定性理论、LaSalle不变集和极大熵函数理论。第叁章研究了基于拉格朗日乘子法求解无约束的非线性极大极小问题的神经网络方法。首先将无约束的非线性极大极小问题转化为一般的约束优化问题,然后利用拉格朗日乘子法构造相应的非线性规划问题的神经网络模型,最后分析所建立的神经网络模型的稳定性,并给出了具体的算例。第四章研究了基于极大熵方法求解具有不等式约束的非线性极大极小问题的神经网络方法。首先利用极大熵方法把不可微的非线性极大极小问题转化为等价的可微的极小化问题,然后基于拉格朗日乘子法构造了相应的神经网络模型,最后分析了所建立的神经网络模型的稳定性,同时给出了具体的算例。第五章是对前面两章的神经网络方法进行的对比与总结,指出了我们需要进一步研究的问题。(本文来源于《长江大学》期刊2019-05-01)
于金金,吕一兵[2](2019)在《一种求解非线性极大极小问题的神经网络方法》一文中研究指出神经网络具有大规模并行处理及快速收敛的特性,为优化问题的算法设计提供了一种新的思路。为此,设计了一种求解非线性极大极小问题■,■的神经网络方法:首先将非线性极大极小问题■,■转化为带不等式约束的非线性规划问题■;然后采用Lagrange乘子法构造相应非线性规划的神经网络模型■,并对该神经网络模型的渐近稳定性进行了分析。数值试验结果表明,利用神经网络可以有效地求解极大极小问题。(本文来源于《长江大学学报(自然科学版)》期刊2019年04期)
李昌兴,徐迈,惠莉萍[3](2018)在《非线性极小极大问题的分数阶粒子群算法》一文中研究指出针对非线性极小极大问题中目标函数不可微的特点以及传统计算方法对初始点的依赖,结合分数阶粒子群算法与极大熵函数法,给出一种解决非线性极小极大问题的新算法。先利用极大熵函数法将目标函数转化成可微函数,再利用分数阶粒子群算法求解可微的近似优化问题。8个问题的数值测试结果表明,所给算法收敛速度快,稳定性好,可有效解决非线性极小极大问题。(本文来源于《西安邮电大学学报》期刊2018年06期)
马国栋,周泽文,靳文慧[4](2018)在《非线性极大极小问题一个新的QP-free算法》一文中研究指出本文研究非线性无约束极大极小优化问题. QP-free算法是求解光滑约束优化问题的有效方法之一,但用于求解极大极小优化问题的成果甚少.基于原问题的稳定点条件,既不需含参数的指数型光滑化函数,也不要等价光滑化,提出了求解非线性极大极小问题一个新的QP-free算法.新算法在每一次迭代中,通过求解两个相同系数矩阵的线性方程组获得搜索方向.在合适的假设条件下,该算法具有全局收敛性.最后,初步的数值试验验证了算法的有效性.(本文来源于《应用数学》期刊2018年04期)
靳文慧,刘美杏[5](2018)在《非线性极大极小问题一个修正FR共轭梯度法》一文中研究指出基于指数光滑化函数,提出了一个求解非线性极大极小问题修正FR共轭梯度算法.在每一次迭代中,通过Armjio非精确线搜产生步长,利用几何减小策略调整指数光滑化函数中的罚参数.在适当的假设条件下,新算法具有全局收敛性.(本文来源于《玉林师范学院学报》期刊2018年02期)
刘翔锋[6](2016)在《约束极大极小问题的一类非线性Lagrange方法的研究》一文中研究指出有约束的极大极小优化问题是实际生活中的常见问题,各专家学者对此类问题进行了多方面的研究,并给出了许多解决此类问题的方法.本文在前人研究的基础上,分别为带有约束的极大极小确定性优化问题以及随机优化问题提出有效的方法,以便更好地解决这类问题.本文主要做了如下工作:(1)在非线性Lagrange方法的研究基础上,为解决有约束极大极小确定性优化问题构造了一种新的非线性Lagrange函数,并建立以此函数为目标函数的极小化问题,给出了相应的非线性Lagrange算法.在一定的假设条件下,建立了相应于该非线性Lagrange算法的收敛性理论,该理论表明:当控制参数小于某个阀值时,由该算法得到的最优解序列局部线性收敛于原问题的最优解.最后,采用Matlab语言对非线性Lagrange算法进行编程,对十个算例进行数值实验,实验结果验证了该算法的可行性和有效性.(2)基于上述非线性Lagrange函数,结合样本均值近似方法的基本思想,本文对有约束的极大极小随机优化问题构造了样本均值非线性Lagrange函数,并给出相应的样本均值非线性Lagrange算法.根据有约束极大极小确定性优化问题的非线性Lagrange算法的收敛性结果,在适当假设条件下,证明了由样本均值非线性Lagrange算法所产生的序列解在概率1意义下收敛于原问题的最优解.最后,采用Matlab语言对样本均值非线性Lagrange算法进行编程,并对8个算例进行数值实验,实验结果初步验证了本文提出的样本均值非线性Lagrange算法的可行性和有效性.(本文来源于《武汉理工大学》期刊2016-06-01)
聂芸芸[7](2013)在《无约束极大极小优化问题的一类非线性Lagrange方法的研究》一文中研究指出本文研究了无约束极大极小问题的一类非线性Lagrange方法,主要做了如下工作:(1)针对确定性无约束极大极小优化问题,构造了以该问题的一类非线性Lagrange函数为目标函数的极小化问题,设计了相应的非线性Lagrange算法.在一些适当的假设条件下,建立了该类算法的收敛性理论框架.理论结果表明当控制参数小于某一阀值时,由该类算法得到的序列解局部Q-线性收敛于原问题的最优解,并给出了序列解的误差界.最后,采用Matlab语言分别对该类非线性Lagrange函数的四个特例进行编程,对十个经典算例进行了数值实验.数值实验结果显示了这四个具体的非线性Lagrange函数各自的优越性.(2)针对无约束极大极小随机优化问题,基于上述一类非线性Lagrange函数中的一个具体函数,应用样本均值近似方法的思想,构造了原极小化问题的样本均值近似极小化问题,设计了样本均值非线性Lagrange算法.在一些适当的假设条件下,证明了样本均值近似问题的最优解和最优值以概率1收敛于原极小化问题的最优解和最优值.进一步结合确定性无约束极大极小问题的二阶最优性条件,证明了样本均值非线性Lagrange算法的概率1意义下的收敛性.最后,采用Matlab语言对本文提出的样本均值非线性Lagrange算法进行编程,分别对五个算例进行数值实验.数值实验结果初步验证了本文提出的样本均值非线性Lagrange算法可行性.(本文来源于《武汉理工大学》期刊2013-10-01)
周畅,张建科[8](2012)在《一类非线性极小极大问题的粒子群-邻近点算法》一文中研究指出针对每个分量函数都是凸函数的离散型非线性极小极大问题,提出一种全局收敛的粒子群-邻近点混合算法。该算法利用极大熵函数将极小极大问题转化为一个光滑函数的无约束凸优化问题;利用邻近点算法为外层算法,内层算法采用粒子群算法来优化此问题;数值结果表明,该算法数值稳定性好、收敛快,是求解此类非线性极小极大问题的一种有效算法。(本文来源于《计算机工程与应用》期刊2012年36期)
刘勇,马良[9](2012)在《非线性极大极小问题的混沌万有引力搜索算法求解》一文中研究指出针对非线性极大极小问题目标函数不可微的特点,提出了一种混沌万有引力搜索算法的求解方法。该算法采用基于万有引力定律的优化机制引导群体进行全局探索,并基于混沌运动的随机性、遍历性和规律性特点,利用混沌优化对当前最优位置进行精细搜索,有效抑制算法早熟收敛现象,提高优化性能。数值实验结果表明,该算法具有计算精度高、数值稳定性好等特点。(本文来源于《计算机应用研究》期刊2012年01期)
刘国志[10](2011)在《求解非线性极大极小问题的一种新的混合算法》一文中研究指出对于一类非线性极大极小问题,由于凝聚函数法简单且易实施,所以一直是较流行的光滑处理技术,然而选择一个合适的惩罚因子不是一件容易的事。本文通过引入Hook-jeveese搜索法和可行基规则,提出一个求解非线性极大极小问题的新的混合算法—Hook-jeveese搜索法和与可行基规则相结合粒子群算法的混合算法。与凝聚函数法相比,可行基规则不需要额外的参数,且指引粒子迅速飞向可行域。利用两个典型实例问题进行计算比较,计算结果表明了新算法是求解非线性极大极小问题的一个高效的算法,而且获得了一些比以往文献精度更好的解。(本文来源于《长春理工大学学报(自然科学版)》期刊2011年04期)
非线性极大极小问题论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
神经网络具有大规模并行处理及快速收敛的特性,为优化问题的算法设计提供了一种新的思路。为此,设计了一种求解非线性极大极小问题■,■的神经网络方法:首先将非线性极大极小问题■,■转化为带不等式约束的非线性规划问题■;然后采用Lagrange乘子法构造相应非线性规划的神经网络模型■,并对该神经网络模型的渐近稳定性进行了分析。数值试验结果表明,利用神经网络可以有效地求解极大极小问题。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
非线性极大极小问题论文参考文献
[1].于金金.解非线性极大极小问题的神经网络方法研究[D].长江大学.2019
[2].于金金,吕一兵.一种求解非线性极大极小问题的神经网络方法[J].长江大学学报(自然科学版).2019
[3].李昌兴,徐迈,惠莉萍.非线性极小极大问题的分数阶粒子群算法[J].西安邮电大学学报.2018
[4].马国栋,周泽文,靳文慧.非线性极大极小问题一个新的QP-free算法[J].应用数学.2018
[5].靳文慧,刘美杏.非线性极大极小问题一个修正FR共轭梯度法[J].玉林师范学院学报.2018
[6].刘翔锋.约束极大极小问题的一类非线性Lagrange方法的研究[D].武汉理工大学.2016
[7].聂芸芸.无约束极大极小优化问题的一类非线性Lagrange方法的研究[D].武汉理工大学.2013
[8].周畅,张建科.一类非线性极小极大问题的粒子群-邻近点算法[J].计算机工程与应用.2012
[9].刘勇,马良.非线性极大极小问题的混沌万有引力搜索算法求解[J].计算机应用研究.2012
[10].刘国志.求解非线性极大极小问题的一种新的混合算法[J].长春理工大学学报(自然科学版).2011