机器学习系统设计的算法评估与误差分析
本文是coursera上吴恩达老师的machinelearning课程第六周的个人笔记,如果有幸被同好看到,可以在留言中指出我的问题或者一起讨论!一、算法评估 1、数据集的划分 【机器学习系统设计的算法评估与误差分析】评估算法过程中,我们要将数据集分成训练集、交叉验证集、测试集,习惯上应该先将数据集随机无规律排序后按照6:2:2的比例进行划分。三个集合分别计算的代价函数J记为Jtrain,Jcv,Jtest。
2、模型(多项式)选择 即假设函数h的次数,对于待测试的的不同次数的假设函数分别利用训练集训练,将得到的模型再利用交叉验证集(简称验证集)计算代价函数即验证误差。验证误差最小的模型即位采用的模型,再利用测试集得到推广误差。
3、欠拟合与过拟合的诊断 此时需要绘制Jtrain和Jcv的曲线来分析拟合好坏情况。如图所示,当次数很小的时候,对训练集和验证集拟合效果都不好(误差高),此时为欠拟合;当次数过大的时候,对测试集拟合情况会非常的好,但是对未知情况(验证集)的预测能力会下降(误差升高),即训练集误差很小,验证集误差过大,两者相差很大,此时为过拟合。得出结论:增大多项式次数能改善欠拟合情况。反之则相反。
文章图片
误差与多项式次数的曲线 4、正则化与拟合情况的关系 此时依旧需要绘制Jtrain和Jcv的曲线,但是横坐标为正则化参数。如图所示,正则化参数越大,对拟合的“惩罚”就越大,所以会减少过拟合情况,过大的极端条件下,即位欠拟合,过小即不做正则化处理,即为过拟合。得出结论:减小正则化参数能改善欠拟合情况。反之则相反。
文章图片
误差与正则化参数的曲线 5、学习曲线 一味的增大训练实例不一定能显著提升算法的能力,这个结论从学习曲线中得到。当Jtrain从很小增加到很大,Jcv从很大没有显著下降时,即位欠拟合,如图所示,即使增加m的数量,也无法改善此算法的能力。
文章图片
欠拟合情况学习曲线 当Jtrain从很小缓慢增加,Jcv从很大缓慢下降,此时在较少训练集下表现出很大的差距(large gap)时,即为过拟合,如图所示,随着m的增大,二者距离会越来越接近,进而达到改善算法能力的效果。
文章图片
过拟合情况学习曲线 综合这两种情况得出结论:增加训练实例的数量可以改善过拟合情况,没有反之。
6、特征与神经网络 对于特征,我们可以去掉一些无关特征来改善过拟合情况;或者增加更能预测结果的一些特征来改善欠拟合。
对与网络较小的神经网络,参数少,容易导致欠拟合,但是计算量小;对于较大的神经网络,参数多,容易导致过拟合,可加入正则化参数来改善,计算量大。较大的神经网络加正则化的效果更好。
二、误差分析 1、Skewed Classes(分类偏移) 分类偏移是指两个类别中其中一个类别出现的概率非常小,比如肿瘤预测,肿瘤患者在整个数据集中往往只占0.5%,剩余的99.5%都是健康的,在这样的情况下正常的考虑误差的方式将不适用,因为即使算法永远预测一个人是健康的,误差也只有0.5%。为了评估skewed classes情况的数据集,我们要引入查准率(precision)和查全率(recall)。
查准率:预测为1的里面,确实是1的概率。
查全率:实际是1的里面,被预测出来的概率。
查准率和查全率都应该尽可能的大。这里面的1,选取概率小的那一个类别。所以按照肿瘤的例子,如果永远预测一个人是健康的(0),那么他的查准率为无穷大,但是查全率为0。
2、阈值与权衡查准率和查全率 绘制下图,查准率查全率与阈值的关系。
文章图片
查准率查全率与阈值的关系 阈值是指假设函数h不一定只有在大于0.5的适合预测为1,也可以设置新的阈值,比如为了让病人警惕性更强一些,可以将阈值设置为0.3,这样可以查得更全(查全率高),也可以把阈值设置的更高比如0.9,这样只有当可能性非常大时才会被判断为肿瘤,也就是查得更准(查准率高)。
为了权衡两个指标的关系,对于既定的几个阈值,计算他们的查准率P和查全率R,然后计算F1值:F1score= 。选取F1最高的阈值,即可权衡查准率和查全率。
推荐阅读
- PMSJ寻平面设计师之现代(Hyundai)
- 基于微信小程序带后端ssm接口小区物业管理平台设计
- 爱琐搭配(喜欢复古、冷淡,像这种双环设计的气质耳环)
- 别墅庭院设计,不同的别墅庭院设计也给人视觉上完全不一样的!
- 数据库设计与优化
- 机器学习|机器学习 Andrew Ng《Machine Learning》课程笔记1
- 《机器学习实战》高清中文版PDF英文版PDF+源代码下载
- 机器学习一些简单笔记
- 设计模式-代理模式-Proxy
- 剑指|剑指 Offer 13. 机器人的运动范围(dfs,bfs)