深度学习|深度学习中的优化器原理总结(经典+前沿)

目录
前言
一、梯度下降的思想与批梯度下降法
1.随机梯度下降法
2.标准梯度下降法
3.批梯度下降法
二、经典的五类优化器
1.SGD
2.SGDM(SGD with momentum)
3.Adagrad
4.RMSProp
5.Adam
三、前沿方法
1.AMSGrad
2.AdaBound
3.SWAT
4.Cyclical LR/SGDR/One-cycle LR
5.RAdam
6.Lookahead
7.SGDWM/AdamW
8.一些帮助优化的方法
四、总结
前言 本文介绍了经典和前沿的深度学习中的优化器(优化算法)。文章整体思路、图片、公式均源自李宏毅2020机器学习深度学习(完整版)国语_哔哩哔哩_bilibili。Optimization部分在网课中是由课程助教讲解的选学课程,难度较大(我在第一次学习的时候甚至连Adam算法都没有理解,就匆匆跳过了课程)。之所以整理出该文章,一方面用于以后自己经常回顾,一方面希望可以帮助向曾经的我一样被直接劝退的朋友们。视频中Adagrad、RMSProp等算法等讲解得过快,我在文中写入了自己对不同算法的理解、思考以及直观上的分析,如果能恰好帮助你理解,并与网课视频相互补充,那我将十分荣幸。
本文分为三个部分,第一个部分介绍梯度下降的思想及实际训练模型常用的批梯度下降法,第二部分介绍了五种经典的算法,第三部分介绍了一些前沿算法。在第二三部分的介绍中,每种算法在介绍时以算法的优势、步骤和直观理解为主,不讨论其理论性质的证明。
无论是DNN还是CNN,都追求模型预测值和真实值间的差异最小化,通常构造损失函数来度量这种差异(如回归问题中的平方损失,分类问题中的交叉熵损失),损失函数是模型参数的函数。因此,我们一定会面临一个最小化问题,目标函数是损失函数,决策变量是模型参数。于是,我们需要优化算法来求解这个最小化问题,梯度下降法或者说它的思想贯穿着深度学习优化算法的始终。
一、梯度下降的思想与批梯度下降法 梯度下降是经典的优化算法,它的思想是:参数在更新时始终朝着目标函数(最小化问题)下降最快的方向移动,而这个方向就是梯度(梯度是上升最快的方向)的反方向,用公式可以表达为
【深度学习|深度学习中的优化器原理总结(经典+前沿)】深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
是损失函数深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
对第深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
时刻的参数深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
的梯度,深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
学习率是一个超参数,需要人为设定,通常设为0.001、0.01等。
算法的流程非常简单:初始化参数向量深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
,然后根据该公式不断更新梯度,使得损失函数收敛到较低水平时停止。
基于梯度下降优化算法的思想,通常有三种不同的模式来训练模型,分别是:随机梯度下降,标准梯度下降法,和批梯度下降法:
1.随机梯度下降法 每次只使用一个训练集样本来更新参数。该方法的不足是参数更新不够稳定,收敛速度较慢,这是因为一个样本很难代表整体,每次更新只是减小了该样本的损失函数值,却可能造成在其他样本上损失函数值的增大。
2.标准梯度下降法 每次利用全部训练集样本来更新参数。该方法虽然直观上解决了上述问题,但通常深度学习问题的数据量庞大,一次性将全部数据丢计算机进行训练几乎是不可能的。其次,由于包括了所有样本,不同样本对参数更新的影响可能会相互抵消,使得参数每轮更新值都很小。
3.批梯度下降法 批梯度下降法是对上述两种方法的集中,明显规避了两种方法的缺点,成为现在几乎一定会使用的方法。该方法就是将数据集分成几个批(batch),每个batch的数据量根据实际数据量的大小由自己定义,每次丢进一个batch进入模型进行训练。

二、经典的五类优化器 1.SGD 见一,1。(虽然算法名叫随机梯度下降,但实际上,仍然采用的是mini-batch gradient descent,批梯度下降法。无论采用什么优化器,都需要用用mini-batch的方式训练。)
2.SGDM(SGD with momentum) 随机梯度下降法虽然有效,但容易陷入局部最小值点,甚至在驻点附近以及梯度值非常小的点附近时参数更新极为缓慢。为了改进这个缺点,引入物理中动量的概念,参数更新量深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
,是当前梯度的方向深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
,和上一次参数更新方向深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
的线性组合。算法如下:
①初始化参数深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

②计算当前梯度:深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

③更新参数移动量:
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

④更新参数:深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
,返回步骤②,直到达到某终止条件。
下图是参数是以一维的情况下,动量法的直观示意。可以看到在局部最小值点时,虽然真实的梯度为0,但由于惯性(上一时刻的动量方向)存在,参数仍然会朝着原有方向更新,也就有了冲出局部最小值的可能。
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

3.Adagrad Adagrad算法的公式如下:
①初始化参数深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

②计算当前梯度:深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
;更新参数:
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片


深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
,返回步骤②,直到达到某终止条件。
观察步骤二参数更新公式中的式子
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

可以发现,除了第一次更新时的更新量为深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
,其余时刻的更新量都小于深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
,是一个介于0到深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
之间的数。如果新的梯度很大,则更新量大(接近深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
),否则更新量小(接近0)。
直观上来讲,更新量是新的梯度的平方占累积梯度平方和的比例开根号乘以深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
,它的意义在于使得不同参数的更新处于同一维度之下,从下图可以体现出来。
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

可以看出,在给定的参数点上,在深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
方向上的导数大于深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
方向的导数。如果采用传统的SGD方法,参数更新的方向将是橙色线的方向。而如果是采用Adagrad算法,由于 深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
方向上的累积导数和也很大,这使得两个参数方向对最终的更新方向的贡献几乎相等,此时更新的方向大概是红色线的方向,这是更符合我们直观想法的。
4.RMSProp Adagrad算法和RMSProp算法都称为自适应算法。自适应算法的意思就是,学习率随着更新次数而改变。Adagrad算法虽然在上述简单的例子中有直观解释,但实际的损失函数通常很复杂。且发现当t很大时,Adagrad下参数将几乎不再更新。可以假设,对任意t,深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
相同,此时参数的更新量将以深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
阶减小。为了改变这一劣势,提出RMSProp算法。RMSProp算法如下:
①初始化参数深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

②计算:深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
;
③更新参数:
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
,返回步骤②,直到达到某终止条件。
将步骤二中的深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
展开得到:
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

可以看到,与Adagrad相比,分母中过去的梯度值平方的权重已经由等权(权重均为1),变为指数加权。此时参,参数更新量的上界为深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
。随着更新次数的增加,对于相同的深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
,RMSProp算法的参数更新量深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
大于Adagrad算法,解决了过快收敛的问题。
5.Adam Adam算法是RMSProp算法与SGDM算法的结合,其既是有着自适应学习率,又能引入了动量机制在一定程度上减小参数陷入局部最有点的可能性。其是应用最为广泛的深度学习优化器之一,算法步骤如下:
①初始化参数:深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

②计算梯度:深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

③更新深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

④更新深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

⑤更新参数
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

其中,
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
,返回步骤二,直到满足某终止条件。
步骤④中的深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
的估计量,其修正了偏差,以得到更好的理论性质;深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
是为了防止前几次计算梯度为0时,参数更新量的分母为0。通常设置:深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
.
三、前沿方法 一些前沿方法相继被提出,大部分是以上经典算法的改进、组合等。
1.AMSGrad 算法步骤上,在ADAM算法基础上进行了改进:
①初始化参数:深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

②计算梯度:深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

③更新深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

④更新深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

⑤更新参数
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

其中,
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
.
该算法的改进点在于深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
。可以看出AMSGrad法的深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
随着t的增加一直在递增,而Adam法中的深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
是有可能减小的。若深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
,则参数更新量约等于ADAM算法;若深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
,则参数更新量小于ADAM算法。
到后期,梯度值较小时,深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
将保持不变,深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
是常数,此时更新量的大小只取决于深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
的大小。
2.AdaBound 方法提出者在测试Adam算法时发现在更新参数时,更新量要么很大要么很小,因此提出了一个Bound的方法,控制每次的更新量不超过某个范围。
关键步骤为:
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

3.SWATS 一些研究发现,通常SGDM算法收敛速度较慢但稳定,ADAM算法收敛速度快但较不稳定,同时SGDM算法的收敛结果要好于ADAM。也就是SGDM算法虽然收敛得慢,但能够得到更低得损失函数值。
因此,想到可以结合二者得优点。训练时,先用ADAM算法使得损失函数快速下降,再使用SGDM法寻找更低的损失函数,这就是SWAT法。但该方法并没有给出一种通用的准则来决定:①何时切换两种方法②切换到SGDM时,学习率如何设置。因此,该方法更多是一种思路,对于不同问题需要不断尝试,且尝试成本较大。
4.Cyclical LR/SGDR/One-cycle LR 这一类方法的思想是,SGDM之所以更新参数速度较慢,是因为学习率恒定,因此尝试在SGDM方法上加上一个人为的动态的学习率。典型的三种方法是Cyclical LR、SGDR和One-cycle LR,它们的学习率随着迭代次数的变化的形状依次见以下三幅图。
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

前两种方法的学习率变化具有周期性,而最后一种不具有周期性,因此称为One-cycle。
5.RAdam 有研究发现Adam算法在前几代,所有参数的梯度值的方差较大,而在中后期梯度值的分布逐渐趋于稳定。为了防止梯度值比较散乱时,参数在错误的方向上更新量过大,采用一种热身(warm-up)的方法,在更新初期采用小的学习率,在后期采用大的学习率(One-cycle LR方法学习率图像中前期线性增长的部分就可以看作是一种warm-up)。
RAdam方法的warm-up通过深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
来控制,深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
逐渐从0增加到1。
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
的公式和图像分别为:
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

参数更新的公式为:

  • 深度学习|深度学习中的优化器原理总结(经典+前沿)
    文章图片
    时,
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

  • 深度学习|深度学习中的优化器原理总结(经典+前沿)
    文章图片
    时,
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

因为只有当深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
时,深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
才存在,因此当深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
不存在时,先采用SGDM法更新参数。
对比一下RADAM和SWAT方法:
  • 提出动机:RADAM的提出动机是,ADAM更新参数初期,深度学习|深度学习中的优化器原理总结(经典+前沿)
    文章图片
    估计不准,导致深度学习|深度学习中的优化器原理总结(经典+前沿)
    文章图片
    估计不准,因此采用warm-up的方法,用深度学习|深度学习中的优化器原理总结(经典+前沿)
    文章图片
    乘原本的更新量,深度学习|深度学习中的优化器原理总结(经典+前沿)
    文章图片
    逐渐从0增加到1;而SWAT提出动机是ADAM前期训练效率高,损失函数降的快,SGDM训练效率慢,但收敛效果好。
  • 具体做法:RADAM是先用SGDM(因为前期深度学习|深度学习中的优化器原理总结(经典+前沿)
    文章图片
    不存在),再用warm-up的ADAM;SWAT是先用ADAM,再用SGDM。
  • 切换点:RADAM算法中,当深度学习|深度学习中的优化器原理总结(经典+前沿)
    文章图片
    存在时,从SGDM切换到warm-up的ADAM;SWAT算法中,人为凭经验给定一个切换时刻,从ADAM切换至SGDM。
6.Lookahead Lookahead方法是一种优化策略,可以与以上提出的任何一种优化方法相结合。该策略的思想是:向前走k步,向后退一步(k step forward,1step back)。
正如同下面第一张图的公式。首先,在外层循环中设置快参数深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
和慢参数深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
的初始值相同,然后利用某种优化算法比如SGD算法更新快参数k步(对应下面图二中蓝色虚线从左下到右上的路径),接着更新慢参数,取慢参数为慢参数起始点和快参数终止点连线的中间某一点(对应下面图二从左下到右上的红色直线上的红色三角)。

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

下图是训练后期测试集准确率随训练代数更新的变化,纵轴是测试集准确率,横轴是训练代数。可以看到每个周期前k步,测试集准确率将快速下降(在数据量较少的情况下,如果一直训练,会过拟合的现象,到训练后期时,虽然训练集准确率可能不降低,但测试集准确率会下降,如图中每条蓝线所示),而第k+1步由于回退,测试集准确率保持在较高水平。
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

因此,我认为这个方法能很大程度延缓过拟合的到来,在与过拟合的“抗争"与“拉扯”中,试图找到更好的参数值。
7.SGDWM/AdamW 通常为了防止过拟合,我们会在原来的损失函数深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
的基础上加上二范数正则项深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
:
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

此时,参数在深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
处的梯度由深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
变为深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

因此,在基于梯度下降法更新参数时,自然要利用新的梯度进行更新,但对于SGDM法和Adam法来说,深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
的更新是否需要使用新的梯度呢?如果按照公式来讲,理论上就应该是使用新的梯度。但2017年,有学者表明,在SGDM算法更新深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
,以及Adam算法更新深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
的过程中使用原梯度深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片
(即不加正则项的梯度)效果会更好。

于是便有了SGDWM和AdamW算法,如下图所示:
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

8.一些帮助优化的方法
  • Shuffling:做mini-batch时每次打乱数据顺序,保证batch样本的随机性,从而保证梯度更新的随机性。
  • Dropout:DNN中,使得一部分神经元随机失活。
  • Gradient noise:给梯度增加独立的随机正太噪声,噪声方差随时间t的增加而减小。
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

  • Warm-up:学习率逐渐增加。
  • Curriculum learning:先用干净数据训练模型,再用复杂数据(有噪声数据)训练模型。
  • Fine-tuning:用训练好的参数(可以从已训练好的模型中获得)初始化自己的网络,然后用自己的数据接着训练,参数的调整方法与from scratch训练过程一样(梯度下降)。
  • Normalization:批归一化等。
四、总结 以上方法总结为下图(NAG方法数学推导实在过于复杂,没有进行介绍):
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片

应用最为广泛的两种方法SGDM和Adam的不同应用领域:
深度学习|深度学习中的优化器原理总结(经典+前沿)
文章图片



    推荐阅读