导读:本文包含了支持向量函数回归论文开题报告文献综述、选题提纲参考文献及外文文献翻译,主要关键词:向量,函数,损失,敏感,多项式,数据,下界。
支持向量函数回归论文文献综述
周怡[1](2019)在《基于不同损失函数支持向量回归机的对比研究》一文中研究指出机器学习主要是用来分析处理数据,挖掘数据背后所潜在的相关信息.大数据时代,如何准确快速地挖掘信息背后的关系已成为热点.支持向量机是由Vapnik等人提出的一项用于数据挖掘的新技术,主要用于模式识别、回归分析等方面.支持向量机的优点在于算法具有稀疏性,运算结果只受一部分样本的影响,抗干扰能力强.此外,通过加入正则项,支持向量机还能防止了“过拟合”.本文主要研究内容:(1)由最大间隔法推广所得的ε-支持向量回归机(ε-SVR)与结构风险最小化回归机(t-SVR)两者的内部联系.(2)文中简略介绍了ε-支持向量回归机、最小二乘法支持向量回归机(LSSVR),以及由ε-SVR算法变形出的v-支持向量回归机(v-SVR).此外,改进了v-SVR算法中的损失函数,分别得到了高斯损失支持向量回归机(GSVR)、混合损失支持向量回归机(MSVR),并用实际数据进行以上五种算法的性能评估.本文研究结论:(1)设ε-SVR算法在参数选定C时,所得的最优解为(w*(C),b*,ξ(*),此时若令t=‖w*(C)‖,则可验证(w*(C),b*)是t-SVR算法的一个最优解,两者等价.(2)无论线性还是非线性回归问题,GSVR算法、MSVR算法在参数C相同且v选取较大时,得到的回归函数与LSSVR算法等价,且对训练集的拟合效果都优于v-SVR算法;对于某些样本集,采用ε不敏感损失的ε-SVR算法性能比其他几种算法预测效果更好,且抗干扰能力更强.(3)对于多元非线性的问题,结合文中的两个实际问题,GSVR算法的预测能力较好。(本文来源于《华东师范大学》期刊2019-04-01)
陈珩,陈迪荣,黄尉[2](2018)在《函数型数据支持向量回归》一文中研究指出函数型数据回归是一个非常有意义的课题.已有工作都是利用平方损失来衡量误差,而本文采用ε-不敏感损失来衡量误差.本文构造基于ε-不敏感损失的逼近元,给出表示形式及其系数计算.逼近元具有鲁棒性和稀疏性等性质.本文的主要结果是,在一些常规条件下建立预测误差收敛阶.与关于平方损失工作相比,我们不要求协方差算子与积分算子之间的"对齐"关系.此外,本文还讨论了支持向量回归函数本身的逼近性质.即使对有限维数据,关于这方面的结果在文献中也尚未见到.(本文来源于《中国科学:数学》期刊2018年03期)
王珏,乔建忠,林树宽,罗海艳[3](2016)在《基于综合隶属度函数的模糊支持向量回归机》一文中研究指出针对金融时间序列一般具有非线性、非平稳性、高信噪比和有限样本等特点,将模糊支持向量回归机引入到金融时间序列预测中.设计一种综合模糊隶属度函数,充分考虑到叁点:第一噪音会导致错误的回归;第二越靠近预测点的样本对回归的影响越大;第叁,离回归线越远的样本,对回归的贡献越大.综合隶属度函数,尽量剔除噪音并给离回归线远的和靠近预测点的样本较大的权值.将采用综合隶属度函数的模糊支持向量回归机应用于羊绒价格序列中,仿真结果表明,本文的基于综合隶属度函数的模糊支持向量回归机在预测精度上有所提高.(本文来源于《小型微型计算机系统》期刊2016年03期)
孟银凤,梁吉业[4](2014)在《基于最小二乘支持向量机的函数型数据回归分析》一文中研究指出部分函数线性模型是用于处理输入变量包含函数型和数值型两种数据类型而输出变量为数值的一类回归机.为提高该模型的预测精度,基于函数系数在再生核Hilbert空间上的表示,得到模型的结构化表示,将函数系数的估计转化为参数向量的估计问题,并运用最小二乘支持向量机方法得到参数估计形式.实验表明,文中算法对数值型数据的向量系数的估计与其他参数估计方法性能相近,但对函数型数据的函数系数的估计更加准确稳健,有助于确保学习机的预测精度.(本文来源于《模式识别与人工智能》期刊2014年12期)
赵建强,李苏北,孙永,陈必科[5](2014)在《回归型支持向量机调节熵函数法的区间扩张研究》一文中研究指出为减小由于二进制编码的舍入误差对该问题计算结果的影响,对求解回归支持向量机的一种调节熵方法进行了区间扩张,讨论了区间函数的相关定理与收敛性.对设计的区间算法做了收敛性证明,并给出了数值实验,验证了方法与算法的可行性和有效性.(本文来源于《数学的实践与认识》期刊2014年19期)
王霞,王占岐,金贵,杨俊[6](2014)在《基于核函数支持向量回归机的耕地面积预测》一文中研究指出科学预测耕地保有量是耕地保护的基础,对缓解用地矛盾、保证粮食安全具有重要指导意义。为探讨不同核函数支持向量回归机(support vector regression,SVR)对耕地面积预测的影响,该文以惠州市为例,分别采用多元回归、BP神经网络及3种不同核函数SVR建立耕地面积预测模型并进行对比试验。预测结果精度分析显示,RBF核函数SVR预测结果平均相对误差为0.54%,均方根误差为0.007,精度最高;Sigmoid核函数SVR预测结果对应误差分别为1.12%及0.012,精度次之;多项式核函数SVR预测结果对应误差为分别为2.71%及0.032,高于BP神经网络模型,但低于多元回归模型。研究表明,在现有3种常用核函数SVR耕地面积预测模型中,基于RBF核函数SVR模型预测能力最强,其次是sigmoid核函数;而多项式核函数则效果较差。(本文来源于《农业工程学报》期刊2014年04期)
徐立祥,李旭[7](2013)在《基于混合核函数支持向量机的回归模型》一文中研究指出基于支持向量机核函数的条件,将Sobolev Hilbert空间的再生核函数和Sig核函数进行有效的线性混合,给出一种新的支持向量机的混合核函数,并提出一种基于再生核的混合核函数支持向量机回归模型,该回归模型兼具了全局核函数与局部核函数的优点,且算法的复杂度被降低.仿真实验结果表明:最小二乘支持向量机的核函数采用基于再生核的混合核函数是可行的,回归的效果比单核函数可以更为细腻.(本文来源于《合肥学院学报(自然科学版)》期刊2013年02期)
冯能山,熊金志[8](2013)在《支持向量回归机多项式光滑函数的逼近精度》一文中研究指出为了解决支持向量回归机多项式光滑函数的逼近精度问题,根据该类光滑函数的复杂性,提出五步求的基本思路:首先把多项式光滑函数的逼近精度问题表示为一个求逼近函数的最大值问题,接着证明这个逼近函数是一个对称函数,然后分别求出逼近函数在[0,ε]和(ε,+∞)上的最大值,最后对这2个最大值进行比较,得出光滑函数的逼近精度.通过实例计算,结果证明了该方法的有效性和正确性,解决了无穷多个多项式光滑函数的逼近精度问题,为光滑支持向量回归机提供了基本的理论支持.(本文来源于《智能系统学报》期刊2013年03期)
何万林[9](2012)在《支持向量机排序回归方法及其在优化分子对接打分函数的应用》一文中研究指出支持向量机(SVM)是一种已经广泛应用于各种应用的统计学习方法。SVM一般可以作为分类算法或者回归算法使用,但它在处理样本排序问题时并不是最理想的方法。因此我们引入了一类新的SVM算法用来学习已知的某些样本的排序从而得出测试样本的期望排序,即支持向量机排序回归(SVRR, Support Vector Rank Regression)。在这里,我们将SVRR应用于优化分子对接打分函数中。利用叁个常用的分子对接验证数据集,我们证明了用SVRR模型得到的分子打分能够更好的识别与晶体构象接近的配体—蛋白结合构象。同时,基于SVRR的打分函数在进行分子筛选时也展示了它的可靠性,例如在分子库中选出能和特定蛋白结合的配体分子。我们相信SVRR也能够在计算生物学领域应用于很多的情况。在文章中,我们讨论了SVRR的特性和变化的潜能。(本文来源于《浙江大学》期刊2012-02-01)
付岚[10](2012)在《用简化的孪生支持向量回归机同步学习函数及其导数》一文中研究指出孪生支持向量回归(Twin Support Vector Regression,TSVR)算法是在Jayadeva等提出的孪生支持向量机(TSVM)基础上的一种新回归算法.其基本思想是构造一对非平行的超平面,它们分别确定目标回归函数的-不敏感上、下界函数,最终目标函数取为上、下界函数的平均值.而简化的孪生支持向量回归(Reduced TwinSupport Vector Regression, RTSVR)算法是通过引入矩形核的概念,将孪生支持向量回归机中的QPP简化.同步研究函数及其导数问题,在很多领域都有广泛应用.本文围绕着如何运用简化的孪生支持向量回归机同步学习函数及其导数这个课题,展开了以下的工作:本文分析了传统的支持向量回归(SVR)和正则化的最小二乘支持向量回归(RLSVR)两种基本的同步学习函数及其导数的方法;研究了将TSVR算法运用到同步学习函数及其导数的问题上,并分别讨论了同时学习单个实变量及多个实变量的实值函数及其导数的问题.分析该算法的学习精度及其收敛性.通过实验比较SVR、RLSVR、TSVR这叁种算法的优缺点.大量的实验表明TSVR算法在多于一个变量的回归中较其它两种算法有更好的学习精度,并且在大型数据集中保持了较好的稀疏性.但在大型数据集下,解决QPP产生的巨大计算量使得学习效率低下.本文进一步通过引入矩形核的概念改进了TSVR算法,提出了简化的孪生支持向量回归算法.实验结果表明简化后的新算法有效的减少了训练所耗时间,促进了它在大型数据集情形下的应用.(本文来源于《西安电子科技大学》期刊2012-01-01)
支持向量函数回归论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
函数型数据回归是一个非常有意义的课题.已有工作都是利用平方损失来衡量误差,而本文采用ε-不敏感损失来衡量误差.本文构造基于ε-不敏感损失的逼近元,给出表示形式及其系数计算.逼近元具有鲁棒性和稀疏性等性质.本文的主要结果是,在一些常规条件下建立预测误差收敛阶.与关于平方损失工作相比,我们不要求协方差算子与积分算子之间的"对齐"关系.此外,本文还讨论了支持向量回归函数本身的逼近性质.即使对有限维数据,关于这方面的结果在文献中也尚未见到.
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
支持向量函数回归论文参考文献
[1].周怡.基于不同损失函数支持向量回归机的对比研究[D].华东师范大学.2019
[2].陈珩,陈迪荣,黄尉.函数型数据支持向量回归[J].中国科学:数学.2018
[3].王珏,乔建忠,林树宽,罗海艳.基于综合隶属度函数的模糊支持向量回归机[J].小型微型计算机系统.2016
[4].孟银凤,梁吉业.基于最小二乘支持向量机的函数型数据回归分析[J].模式识别与人工智能.2014
[5].赵建强,李苏北,孙永,陈必科.回归型支持向量机调节熵函数法的区间扩张研究[J].数学的实践与认识.2014
[6].王霞,王占岐,金贵,杨俊.基于核函数支持向量回归机的耕地面积预测[J].农业工程学报.2014
[7].徐立祥,李旭.基于混合核函数支持向量机的回归模型[J].合肥学院学报(自然科学版).2013
[8].冯能山,熊金志.支持向量回归机多项式光滑函数的逼近精度[J].智能系统学报.2013
[9].何万林.支持向量机排序回归方法及其在优化分子对接打分函数的应用[D].浙江大学.2012
[10].付岚.用简化的孪生支持向量回归机同步学习函数及其导数[D].西安电子科技大学.2012