导读:本文包含了归纳学习决策树论文开题报告文献综述、选题提纲参考文献及外文文献翻译,主要关键词:归纳,决策树,示例,模糊,分枝,分支,规则。
归纳学习决策树论文文献综述
王熙照,杨晨晓[1](2007)在《分支合并对决策树归纳学习的影响》一文中研究指出传统的决策树构建方法,由于其选择扩展属性时的归纳偏置,导致属性值较多的属性总会被优先选择,从而导致树的规模过大,并且泛化能力下降,因此需对其进行简化.剪枝是简化的一种,分为预剪枝和后剪枝.该文主要针对预剪枝中的分支合并进行研究.文中研究了分支合并对决策树归纳学习的影响;具体讨论了在决策树的产生过程中,选择适当的分支合并策略对决策树进行分钟合并处理后,能否增强树的可理解性,减少树的复杂程度以及提高树的泛化精度;基于信息增益,分析了分支合并后决策树的复杂程度,设计实现了一种基于正例比的分支合并算法SSID和一种基于最大增益补偿的分支合并算法MCID.实验结果显示:SSID和MCID所得到的决策树在可理解性和泛化精度方面均明显优于See5.(本文来源于《计算机学报》期刊2007年08期)
杨晨晓[2](2007)在《分支合并对决策树归纳学习的影响》一文中研究指出决策树归纳学习算法是目前商业数据挖掘工具中使用最为广泛的算法之一,因其形状像树且应用于决策而得名。它是一种逼近离散值目标函数的归纳推理方法,在这种方法中学习到的函数被表示为一棵决策树。这个决策树模型能够表示发现描述类别的模式,用于完成预测任务。决策树是止前用于预测和分类的主要技术,特别是商用领域,已经被成功地应用到从学习医疗诊断到学习评估贷款申请的信用风险的广阔领域。简而言之,决策树能够将数据转换成知识。传统的决策树构建方法,由于其选择扩展属性时的归纳偏置,导致属性值较多的属性总会被优先选择,从而导致树的规模过大,并且泛化能力下降,因此需对其进行简化。剪枝是简化的一种,主要分为预剪枝和后剪枝。本文针对预剪枝中的分支合并进行研究。分支合并就是在树的产生过程中,将当前扩展属性的两个(或多个)属性值所在分支合并成一个分支,然后继续树的生长。本文中提出了两种分支合并算法,基于正例比的分支合并算法(SSID)和基于SVM中MARGIN的分支合并算法(MID)。随后又基于信息增益讨论了分支合并的可行性,提出了基于最大信息补偿的分支合并算法(MCID)。实验结果表明,几种分支合并算法在树的规模、泛化能力等方面要优于利用See5构建的决策树。(本文来源于《河北大学》期刊2007-06-01)
花强,黄冬梅[3](1998)在《语言值选取在模糊决策树归纳学习中的重要性》一文中研究指出本文讨论了示例学习中有关连续值的模糊化问题,并在此基础上引入了模糊决策树归纳学习算法。通过示例比较,指出:进行连续值模糊化时,模糊语言值的选取对未知样本的分类结果具有相当的影响,它是模糊决策树归纳学习过程中重要而不可忽视的环节。(本文来源于《模糊集理论与应用——98年中国模糊数学与模糊系统委员会第九届年会论文选集》期刊1998-08-01)
洪家荣,丁明峰,李星原,王丽薇[4](1995)在《一种新的决策树归纳学习算法》一文中研究指出本文就示例学习的重要分枝—决策树归纳学习进行了分析与探讨,从示例学习最优化的角度分析了决策树归纳学习的优化原则,指出了以往的以ID3为代表的归纳学习算法所固有的缺陷,并提出了一种新的基于概率的决策树归纳学习算法PID.PID在扩展属性的选择上仍采用基于信息增益率的方法,但在树的扩展过程中,采用属性聚类的方法进行树的分枝合并.PID得到的决策树在树的规模和分类精度上都优于ID3.(本文来源于《计算机学报》期刊1995年06期)
归纳学习决策树论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
决策树归纳学习算法是目前商业数据挖掘工具中使用最为广泛的算法之一,因其形状像树且应用于决策而得名。它是一种逼近离散值目标函数的归纳推理方法,在这种方法中学习到的函数被表示为一棵决策树。这个决策树模型能够表示发现描述类别的模式,用于完成预测任务。决策树是止前用于预测和分类的主要技术,特别是商用领域,已经被成功地应用到从学习医疗诊断到学习评估贷款申请的信用风险的广阔领域。简而言之,决策树能够将数据转换成知识。传统的决策树构建方法,由于其选择扩展属性时的归纳偏置,导致属性值较多的属性总会被优先选择,从而导致树的规模过大,并且泛化能力下降,因此需对其进行简化。剪枝是简化的一种,主要分为预剪枝和后剪枝。本文针对预剪枝中的分支合并进行研究。分支合并就是在树的产生过程中,将当前扩展属性的两个(或多个)属性值所在分支合并成一个分支,然后继续树的生长。本文中提出了两种分支合并算法,基于正例比的分支合并算法(SSID)和基于SVM中MARGIN的分支合并算法(MID)。随后又基于信息增益讨论了分支合并的可行性,提出了基于最大信息补偿的分支合并算法(MCID)。实验结果表明,几种分支合并算法在树的规模、泛化能力等方面要优于利用See5构建的决策树。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
归纳学习决策树论文参考文献
[1].王熙照,杨晨晓.分支合并对决策树归纳学习的影响[J].计算机学报.2007
[2].杨晨晓.分支合并对决策树归纳学习的影响[D].河北大学.2007
[3].花强,黄冬梅.语言值选取在模糊决策树归纳学习中的重要性[C].模糊集理论与应用——98年中国模糊数学与模糊系统委员会第九届年会论文选集.1998
[4].洪家荣,丁明峰,李星原,王丽薇.一种新的决策树归纳学习算法[J].计算机学报.1995