隐单元论文_林洪燕

导读:本文包含了隐单元论文开题报告文献综述、选题提纲参考文献及外文文献翻译,主要关键词:神经网络,单元,函数,阈值,上界,乘法,网络。

隐单元论文文献综述

林洪燕[1](2011)在《基于隐单元递增的相继逼近算法的泛化能力分析》一文中研究指出本文通过双螺旋问题数值实验,分析了用于前馈神经网络的基于隐单元递增的相继逼近训练算法的泛化能力,并与标准BP网络相比较.结果表明,该相继逼近训练算法较标准BP网络有优势.(本文来源于《赤峰学院学报(自然科学版)》期刊2011年02期)

张涛[2](2009)在《用于前馈网络的基于隐单元递增相继逼近算法》一文中研究指出本文首先回顾了神经网络的基本概念和发展概况,然后介绍了BP网络的网络结构和两种基本学习算法,以及神经网络集成的基本思想和研究现状。其次,本文介绍了用于前馈神经网络的基于误差递减的相继逼近训练算法的基本概念和理论证明,并通过对该算法的分析,指出该算法存在一定的不足。针对原算法所存在的问题,本文提出了用于前馈神经网络的基于隐单元递增的相继逼近训练算法,做了初步的算法分析,并分别利用不同的数据试验来研究用于BP网络的基于隐单元递增的相继逼近训练算法的学习能力和泛化能力。对N维奇偶问题数值试验表明,基于隐单元递增的相继逼近训练算法是收敛的,并通过实际试验验证了用于前馈神经网络的基于误差递减的相继逼近训练算法存在的一定不足。对双螺旋问题数值试验表明,基于隐单元递增的相继逼近训练算法在类似该问题的分类领域的泛化能力较普通BP网络有一定优势。对非线性系统数值试验表明,基于隐单元递增的相继逼近训练算法在某些非线性系统的预测稳定性方面较普通BP网络有一定优势。(本文来源于《大连理工大学》期刊2009-05-20)

王俊芳[3](2008)在《带随机隐单元的RBF网络L~2逼近能力》一文中研究指出本文研究了具有随机隐单元的渐增径向基函数(RBF)神经网络对紧集上的平方可积函数的逼近能力。在传统的神经网络逼近理论中,RBF网络逼近能力的证明主要是存在性的,并且在迭代过程中所有的权系数都需要调整,这样就给算法的运行带来了不便。与传统方法不同,我们应用一种构造型方法证明了只需简单随机地选择隐单元的参数,并适当调整隐单元和输出单元之间的权值,那么随着网络隐单元个数的逐渐增大,网络输出函数将依L~2(K)范数以任意精度逼近L~2(K)函数,其中K是欧式空间R~n中任给的一个紧致子集。我们的结果表明对于具有随机隐单元的单隐层RBF神经网络,如果激活函数g:R_+~1→R~1,g不是偶次多项式,并且满足g(‖x‖)∈L_(loc)~2(R~n),那么只要适当选取隐单元和输出单元之间的权值,随着网络隐节点个数m的增大,网络函数f_m将以概率1收敛于L~2(K)中的任意目标函数。本文的结构安排如下:第一章回顾相关神经网络的背景知识,其中包括近年来RBF网络的逼近结果;第二章介绍文中所需要的泛函分析、随机序列和广义函数的基础知识,包括基本函数空间和广义函数空间的关系、基本函数的支集和广义函数的支撑以及基本函数和广义函数的卷积等内容;第叁章主要讨论具有随机隐单元的渐增RBF网络对紧集上平方可积函数的逼近能力,我们得到了一种自然建立叁层前向渐增神经网络的有效方法。(本文来源于《大连理工大学》期刊2008-05-01)

崔荣一,霍焱,崔雪梅[4](2001)在《多层前馈神经网络的隐单元与样本记忆的关系》一文中研究指出给出了叁层前馈神经网络模型中最佳平方逼近输出向量与输出误差的数学表示 ,并讨论了网络实际输出、期望输出和输出误差之间的关系以及隐层单元在这种关系中的作用 ,同时对样本记忆所需要的隐层单元数目的上限等问题进行了相关的分析与讨论(本文来源于《延边大学学报(自然科学版)》期刊2001年03期)

刘英敏,吴沧浦,毕大川[5](2000)在《使用最小二乘法减少神经网络的隐单元》一文中研究指出提出新的逐步减少神经元个数并保持神经网络性能的方法 .每一步中利用提出的规则之一选择被消去的单元 ,然后求解一个线性最小二乘问题调整网络中部分剩余权值 ,使简化网络的输入 -输出关系在训练集上尽量保持不变 .该方法可以得到比已有的启发式方法规模更小 ,但性能相近的网络 ,用反映国内生产总值与外贸总输出和总输入之间关系的例子说明了方法的有效性(本文来源于《北京理工大学学报》期刊2000年06期)

刘英敏,吴沧浦[6](2000)在《多层前馈神经网络隐单元数目上界的证明》一文中研究指出研究前馈神经网络隐单元数目的上界和如何利用样本集的特性减少所需的隐单元个数 .利用 Sigmoid函数的两端极限特性 ,使每个隐单元表示 1~ 2个样本 .在样本集具有局部单调性的情况下 ,可以用有 (p- 1) / 2个隐单元的 3层前馈神经网络以任意小的误差表示 p个目标值 .对一般的样本集 ,所需的隐单元数为 (p- 1) / 2~ (p- 1)个(本文来源于《北京理工大学学报》期刊2000年01期)

鲍晓红,李勇华,高为炳[7](1993)在《有限隐单元多层前馈神经网存贮特性》一文中研究指出本文给出采用Sigmoid函数作为隐单元激发函效的叁层神经网络,当隐层神经元的阈值全取为0时,含k个隐单元的神经网能够准确记忆k个任给的实数值样本,若让此网记忆k +1个样本,则此k+1个样本必须满足一定比值关系,文中在k=1时给出这种关系。本文还指出,神经网准确记忆样本时其权值的取法有无穷多组。(本文来源于《1993中国控制与决策学术年会论文集》期刊1993-05-01)

隐单元论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文首先回顾了神经网络的基本概念和发展概况,然后介绍了BP网络的网络结构和两种基本学习算法,以及神经网络集成的基本思想和研究现状。其次,本文介绍了用于前馈神经网络的基于误差递减的相继逼近训练算法的基本概念和理论证明,并通过对该算法的分析,指出该算法存在一定的不足。针对原算法所存在的问题,本文提出了用于前馈神经网络的基于隐单元递增的相继逼近训练算法,做了初步的算法分析,并分别利用不同的数据试验来研究用于BP网络的基于隐单元递增的相继逼近训练算法的学习能力和泛化能力。对N维奇偶问题数值试验表明,基于隐单元递增的相继逼近训练算法是收敛的,并通过实际试验验证了用于前馈神经网络的基于误差递减的相继逼近训练算法存在的一定不足。对双螺旋问题数值试验表明,基于隐单元递增的相继逼近训练算法在类似该问题的分类领域的泛化能力较普通BP网络有一定优势。对非线性系统数值试验表明,基于隐单元递增的相继逼近训练算法在某些非线性系统的预测稳定性方面较普通BP网络有一定优势。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

隐单元论文参考文献

[1].林洪燕.基于隐单元递增的相继逼近算法的泛化能力分析[J].赤峰学院学报(自然科学版).2011

[2].张涛.用于前馈网络的基于隐单元递增相继逼近算法[D].大连理工大学.2009

[3].王俊芳.带随机隐单元的RBF网络L~2逼近能力[D].大连理工大学.2008

[4].崔荣一,霍焱,崔雪梅.多层前馈神经网络的隐单元与样本记忆的关系[J].延边大学学报(自然科学版).2001

[5].刘英敏,吴沧浦,毕大川.使用最小二乘法减少神经网络的隐单元[J].北京理工大学学报.2000

[6].刘英敏,吴沧浦.多层前馈神经网络隐单元数目上界的证明[J].北京理工大学学报.2000

[7].鲍晓红,李勇华,高为炳.有限隐单元多层前馈神经网存贮特性[C].1993中国控制与决策学术年会论文集.1993

论文知识图

一种前向过程神经网络拓扑结构神经元模型图有隐含层的B尸网络结构(隐单元数...隐单元学习过程个隐单元时的训练误差下降曲...不同隐单元数的网络训练误差曲线...

标签:;  ;  ;  ;  ;  ;  ;  

隐单元论文_林洪燕
下载Doc文档

猜你喜欢