决策树预测分析

是以树形结构(包括二叉树和多叉树)的形式表示的a预测-2/model 。分类树does 决策树回归树does 决策树优点:(1)速度快,分类树(决策 tree):是一种很常见的分类方法,因为决策的这个分支和树的分支非常相似,所以叫做决策树 。
【决策树预测分析】
1、 决策树(DecisionTree 决策 tree是一种非参数的监督机器学习方法,可用于解决回归问题和分类问题 。通过对已有数据的学习 , 计算出一系列推理规则到预测目标变量的值,并以类似流程图的形式显示出来 。决策 tree模型可以可视化,可解释性强,算法容易理解 。基于决策 tree的各种集成算法在很多领域都有广泛的应用 。熵的概念起源于物理学 , 用来度量一个热力学系统的无序程度 。

在信息世界中,熵越高,可以传递的信息越多,熵越低,可以传递的信息越少 。发生概率低的事件比发生概率高的事件具有更大的不确定性 , 需要更多的信息来描述,因此信息熵更高 。我们可以通过计算事件发生的概率来计算事件的信息 , 也就是所谓的“ShannonInformation” 。一个离散事件X的信息可以表示为:h(x)log(p(x))p()表示事件X发生的概率,log()是以二为底的对数函数 , 即一个事件的信息是该事件发生概率的负对数 。

2、 决策树基本概念及算法优缺点Classification决策Tree model是描述实例分类的树形结构 。决策树由节点和有向边组成 。有两种类型的节点:内部节点和叶节点 。内部节点代表一个特性或属性,叶节点代表一个类 。-0它是一个预测-2/以树形结构(包括二叉树和多叉树)形式表示的模型 。分类树does 决策树回归树does 决策树优点:(1)速度快 。

沿途的分裂条件可以唯一地确定一个分类谓词 。(2)准确率高:挖掘出的分类规则准确易懂,决策 tree可以清晰的显示哪些字段更重要 。也就是说,它可以生成可理解的规则 。(3)可以处理连续和类别字段 。(4)不需要任何领域知识和参数假设 。(5)适用于高维数据 。缺点:(1)对于各类别样本数不一致的数据,信息增益偏向那些数值较多的特征 。(2)容易过度拟合 。(3)它忽略了属性之间的相关性 。如果一个事件中有k个结果 , 

    推荐阅读