熵:度量随机变量的不确定性。
信息增益 定义: 以某特征划分数据集前后的熵的差值。
熵可以表示样本集合的不确定性,熵越大,样本的不确定性就越大。因此可以使用划分前后集合熵的差值来衡量使用当前特征对于样本集合 D 划分效果的好坏。
假设划分前样本集合D的熵为H(D) 。使用某个特征A划分数据集D,计算划分后的数据子集的熵为H(D|A)
则信息增益为:
【深度学习|二、机器学习基础13(熵、信息增益、剪枝处理、SVM)】
文章图片
注:在决策树构建的过程中我们总是希望集合往最快到达纯度更高的子集合方向发展,因
此我们总是选择使得信息增益最大的特征来划分当前数据集 D。
信息增益比=惩罚参数 *信息增益
惩罚参数:数据集 D 以特征 A 作为随机变量的熵的倒数
剪枝处理 剪枝处理是决策树学习算法用来解决过拟合的一种办法。
剪枝的基本策略有预剪枝(prepruning)和后剪枝(postprunint)。
预剪枝:在决策树生成过程中,在每个节点划分前先估计其划分后的泛化性能, 如果不能提升,则停止划分,将当前节点标记为叶结点。
后剪枝:生成决策树以后,再自下而上对非叶结点进行考察, 若将此节点标记为叶结点可以带来泛化性能提升,则修改之。
支持向量机 SVM - Support Vector Machine。支持向量机,其含义是通过支持向量运算的分类器。其中
“机”的意思是机器,可以理解为分类器。
解决的问题:线性分类、非线性分类
超平面(hyperplane)、最大间隔超平面(maximum-margin hyperplane)、最大间隔分类器(maximum-margin classifier),支持向量机是一个二类分类器。
结合使用拉格朗日乘子法和 KKT 条件,以及核函数可以产生非线性分类器。
推荐阅读
- python|python学习计划大全(从入门到实战)
- 深度学习|二、机器学习基础14(核函数)
- 深度学习|二、机器学习基础15(SVM优缺点、聚类与降维)
- 计算机视觉|计算机视觉(十二)(Tensorflow常用功能模块)
- 大数据|一文看懂数据清洗(缺失值、异常值和重复值的处理)
- 特征工程|特征工程系列(GBDT特征构造以及聚类特征构造)
- Python|Python / Pytorch / Tensorflow / Keras / Matlab / 相关库 积累——持更
- 算法|【机器学习基础】数学推导+纯Python实现机器学习算法26(随机森林)
- 人工智能|创新实践”项目介绍9(《Taekwondo Automatic Scoring System》)