吴恩达机器学习教程学习笔记 (8/16) 【吴恩达机器学习笔记|吴恩达机器学习----应用机器学习的建议】吴恩达教授(Andrew Ng)的机器学习可以说是一门非常重视ML理论基础的课程,做做一些简单的笔记加上个人的理解。本笔记根据吴恩达的课程顺序,以每章内容作为节点进行记录。(共18章,其中第3章“线性代数回顾”与第5章“Octava教程”的笔记就不总结了)
第十章 应用机器学习的建议(Advice for Applying Machine Learning)
获得更多的训练实例——通常是有效的,但代价较大,可考虑先采用下面的几种方法进行解决:
1.尝试减少特征的数量
2.尝试获得更多的特征
3.尝试增加多项式特征
4.尝试减少正则化程度λ
5.尝试增加正则化程度λ
1、评估一个假设
文章图片
当我们确定学习算法的参数的时候,我们考虑的是选择参量来使训练误差最小化,有人认为得到一个非常小的训练误差一定是一件好事,但我们已经知道,仅仅是因为这个假设具有很小的训练误差,并不能说明它就一定是一个好的假设函数。而且我们也学习了过拟合假设函数的例子,所以这推广到新的训练集上是不适用的。
那么,你该如何判断一个假设函数是过拟合的呢?对于这个简单的例子,我们可以对假设函数h(x)进行画图,然后观察图形趋势,但对于特征变量不止一个的这种一般情况,还有像有很多特征变量的问题,想要通过画出假设函数来进行观察,就会变得很难甚至是不可能实现。
因此,我们需要另一种方法来评估我们的假设函数过拟合检验。
为了检验算法是否过拟合,我们将数据分成训练集和测试集,通常用70%的数据作为训练集,用剩下30%的数据作为测试集。很重要的一点是训练集和测试集均要含有各种类型的数据,通常我们要对数据进行“洗牌”,然后再分成训练集和测试集。
文章图片
测试集评估在通过训练集让我们的模型学习得出其参数后,对测试集运用该模型,我们有两种方式计算误差:
1.对于线性回归模型,我们利用测试集数据计算代价函数J J t e s t ( θ ) = ? 1 / 2 m t e s t ∑ i = 1 m t e s t ( h θ ( x t e s t ( i ) ) ? y t e s t ( i ) ) 2 J_{test}(θ)=-1/2m_{test}∑^{m_{test}}_{i=1}(h_θ(x^{(i)}_{test})-y^{(i)}_{test})^2 Jtest?(θ)=?1/2mtest?i=1∑mtest??(hθ?(xtest(i)?)?ytest(i)?)22.对于逻辑回归模型,我们除了可以利用测试数据集来计算代价函数外: J t e s t ( θ ) = ? 1 / m t e s t ∑ i = 1 m t e s t l o g h θ ( x t e s t ( i ) + ( 1 ? y t e s t ( i ) ) l o g h θ ( x ( i ) ) J_{test}(θ)=-1/m_{test}∑^{m_{test}}_{i=1}logh_θ(x^{(i)}_{test}+(1-y^{(i)}_{test})logh_θ(x^{(i)}) Jtest?(θ)=?1/mtest?i=1∑mtest??loghθ?(xtest(i)?+(1?ytest(i)?)loghθ?(x(i))误分类的比率,对于每一个测试集实例,计算: e r r ( h θ ( x ) , y ) = 1 err(h_θ(x),y)=1 err(hθ?(x),y)=1 i f h ( x ) ≥ 0.5 a n d y = 0 , o r i f h ( x ) <
0.5 a n d y = 1 ;
if h(x)≥0.5 andy=0,or ifh(x)<
0.5andy=1;
ifh(x)≥0.5andy=0,orifh(x)<0.5andy=1;
e r r ( h θ ( x ) , y ) = 0 err(h_θ(x),y)=0 err(hθ?(x),y)=0 O t h e r w i s e Otherwise Otherwise然后对计算结果求平均:
T e s t e r r = 1 / m t e s t ∑ i = 1 m t e s t e r r ( h θ ( x t e s t ( i ) ) , y t e s t ( i ) ) Test_{err}=1/m_{test}∑^{m_test}_{i=1}err(h_θ(x^{(i)}_{test}),y^{(i)}_{test}) Testerr?=1/mtest?i=1∑mt?est?err(hθ?(xtest(i)?),ytest(i)?)
2、模型选择和交叉验证集 假设我们要在10个不同次数的二项式模型之间进行选择:
文章图片
显然越高次数的多项式模型越能够适应我们的训练数据集,但是适应训练数据集并不代表着能推广至一般情况,我们应该选择一个更能适应一般情况的模型。我们需要使用交叉验证集来帮助选择模型。
即:使用60%的数据作为训练集,使用 20%的数据作为交叉验证集,使用20%的数据作为测试集。
文章图片
模型选择的方法为:
- 使用训练集训练出10个模型
- 用10个模型分别对交叉验证集计算得出交叉验证误差(代价函数的值)
- 选取代价函数值最小的模型
- 用步骤3中选出的模型对测试集计算得出推广误差(代价函数的值)
训练误差: J t r a i n ( θ ) = 1 / 2 m ∑ i = 1 m t r a i n ( h θ ( x t r a i n ( i ) ) , y t r a i n ( i ) ) 2 J_{train}(θ)=1/2m∑^{m_{train}}_{i=1}(h_θ(x^{(i)}_{train}),y^{(i)}_{train})^2 Jtrain?(θ)=1/2mi=1∑mtrain??(hθ?(xtrain(i)?),ytrain(i)?)2交叉验证误差: J c v ( θ ) = 1 / 2 m ∑ i = 1 m c v ( h θ ( x c v ( i ) ) , y c v ( i ) ) 2 J_{cv}(θ)=1/2m∑^{m_{cv}}_{i=1}(h_θ(x^{(i)}_{cv}),y^{(i)}_{cv})^2 Jcv?(θ)=1/2mi=1∑mcv??(hθ?(xcv(i)?),ycv(i)?)2测试误差: J t e s t ( θ ) = 1 / 2 m ∑ i = 1 m t e s t ( h θ ( x t e s t ( i ) ) , y t e s t ( i ) ) 2 J_{test}(θ)=1/2m∑^{m_{test}}_{i=1}(h_θ(x^{(i)}_{test}),y^{(i)}_{test})^2 Jtest?(θ)=1/2mi=1∑mtest??(hθ?(xtest(i)?),ytest(i)?)2
文章图片
我们通常会通过将训练集和交叉验证集的代价函数误差与多项式的次数绘制在同一张图表上来帮助分析:
文章图片
偏差/方差
训练误差: J t r a i n ( θ ) = 1 / 2 m ∑ i = 1 m t r a i n ( h θ ( x t r a i n ( i ) ) , y t r a i n ( i ) ) 2 J_{train}(θ)=1/2m∑^{m_{train}}_{i=1}(h_θ(x^{(i)}_{train}),y^{(i)}_{train})^2 Jtrain?(θ)=1/2mi=1∑mtrain??(hθ?(xtrain(i)?),ytrain(i)?)2交叉验证误差: J c v ( θ ) = 1 / 2 m ∑ i = 1 m c v ( h θ ( x c v ( i ) ) , y c v ( i ) ) 2 J_{cv}(θ)=1/2m∑^{m_{cv}}_{i=1}(h_θ(x^{(i)}_{cv}),y^{(i)}_{cv})^2 Jcv?(θ)=1/2mi=1∑mcv??(hθ?(xcv(i)?),ycv(i)?)2
文章图片
对于训练集,当 d 较小时,模型拟合程度更低,误差较大;随着 d 的增长,拟合程度提高,误差减小。
对于交叉验证集,当 d 较小时,模型拟合程度低,误差较大;但是随着 d 的增长,误差呈现先减小后增大的趋势,转折点是我们的模型开始过拟合训练数据集的时候。
如果我们的交叉验证集误差较大,我们如何判断是方差还是偏差呢?根据上面的图表,我们知道:
文章图片
训练集误差和交叉验证集误差近似时:偏差/欠拟合
交叉验证集误差远大于训练集误差时:方差/过拟合
3、正则化和偏差/方差 在我们在训练模型的过程中,一般会使用一些正则化方法来防止过拟合。但是我们可能会正则化的程度太高或太小了,即我们在选择λ的值时也需要思考与刚才选择多项式模型次数类似的问题。
文章图片
我们选择一系列的想要测试的 λ 值,通常是 0-10之间的呈现2倍关系的值(如:0,0.01,0.02,0.04,0.08,0.15,0.32,0.64,1.28,2.56,5.12,10共12个)。我们同样把数据分为训练集、交叉验证集和测试集。
文章图片
选择λ的方法为:
1.使用训练集训练出12个不同程度正则化的模型
2.用12个模型分别对交叉验证集计算的出交叉验证误差
3.选择得出交叉验证误差最小的模型
4.运用步骤3中选出模型对测试集计算得出推广误差,我们也可以同时将训练集和交叉验证集模型的代价函数误差与λ的值绘制在一张图表上:
文章图片
? 当 λ 较小时,训练集误差较小(过拟合)而交叉验证集误差较大
? 随着 λ 的增加,训练集误差不断增加(欠拟合),而交叉验证集误差则是先减小后增加
4、学习曲线 学习曲线就是一种很好的工具,我经常使用学习曲线来判断某一个学习算法是否处于偏差、方差问题。学习曲线是学习算法的一个很好的合理检验(sanity check)。学习曲线是将训练集误差和交叉验证集误差作为训练集实例数量(m)的函数绘制的图表。
即,如果我们有100行数据,我们从1行数据开始,逐渐学习更多行的数据。思想是:当训练较少行数据的时候,训练的模型将能够非常完美地适应较少的训练数据,但是训练出来的模型却不能很好地适应交叉验证集数据或测试集数据。
文章图片
文章图片
如何利用学习曲线识别高偏差/欠拟合:作为例子,我们尝试用一条直线来适应下面的数据,可以看出,无论训练集有多么大误差都不会有太大改观:
文章图片
也就是说在高偏差/欠拟合的情况下,增加数据到训练集不一定能有帮助。
如何利用学习曲线识别高方差/过拟合:假设我们使用一个非常高次的多项式模型,并且正则化非常小,可以看出,当交叉验证集误差远大于训练集误差时,往训练集增加更多数据可以提高模型的效果。
文章图片
也就是说在高方差/过拟合的情况下,增加更多数据到训练集可能可以提高算法效果。
总结
回顾前文中提出的六种可选的下一步,让我们来看一看我们在什么情况下应该怎样选择:
1.获得更多的训练实例——解决高方差
2. 尝试减少特征的数量——解决高方差
3. 尝试获得更多的特征——解决高偏差
4. 尝试增加多项式特征——解决高偏差
5. 尝试减少正则化程度λ——解决高偏差
6. 尝试增加正则化程度λ——解决高方差
神经网络的方差和偏差:
文章图片
使用较小的神经网络,类似于参数较少的情况,容易导致高偏差和欠拟合,但计算代价较小使用较大的神经网络,类似于参数较多的情况,容易导致高方差和过拟合,虽然计算代价比较大,但是可以通过正则化手段来调整而更加适应数据。通常选择较大的神经网络并采用正则化处理会比采用较小的神经网络效果要好。对于神经网络中的隐藏层的层数的选择,通常从一层开始逐渐增加层数,为了更好地作选择,可以把数据分为训练集、交叉验证集和测试集,针对不同隐藏层层数的神经网络训练神经网络, 然后选择交叉验证集代价最小的神经网络。
感谢黄海广博士团队的翻译和笔记
END
推荐阅读
- 机器学习|吴恩达机器学习课程-第六周(part1)
- 机器学习|吴恩达机器学习课程第七周笔记
- 机器学习|吴恩达机器学习课程-第六周(part2)
- 机器学习吴恩达|coursera机器学习吴恩达-学习笔记-第三周
- 吴恩达老师机器学习课程--神经网络
- 机器学习|吴恩达机器学习课程-第八周
- 机器学习算法之KMeans聚类
- 深度学习|深度学习神经网络之超参数(hyper-parameter)
- 神经网络|贝叶斯优化神经网络参数_贝叶斯超参数优化(神经网络,TensorFlow,相预测示例)