吴恩达深度学习笔记(12)-计算图计算梯度下降

逻辑回归中的梯度下降(Logistic Regression Gradient Descent)
吴恩达深度学习笔记(12)-计算图计算梯度下降
文章图片


本节我们讨论怎样通过计算偏导数来实现逻辑回归的梯度下降算法。
它的关键点是几个重要公式,其作用是用来实现逻辑回归中梯度下降算法。
但是在本节中,将使用计算图对梯度下降算法进行计算。必须要承认的是,使用计算图来计算逻辑回归的梯度下降算法有点大材小用了。但是,以这个例子作为开始来讲解,可以使你更好的理解背后的思想。从而在讨论神经网络时,你可以更深刻而全面地理解神经网络。
接下来让我们开始学习逻辑回归的梯度下降算法。
假设样本只有两个特征x_1和x_2,为了计算z,我们需要输入参数w_1、w_2 和b,除此之外还有特征值x_1和x_2。因此z的计算公式为: z=w_1 x_1+w_2 x_2+b
回想一下逻辑回归的公式定义如下:
^y=a=σ(z) 其中z=w^T x+b , σ(z)=1/(1+e^(-z) )
损失函数:
吴恩达深度学习笔记(12)-计算图计算梯度下降
文章图片


代价函数:
吴恩达深度学习笔记(12)-计算图计算梯度下降
文章图片


假设现在只考虑单个样本的情况,单个样本的代价函数定义如下:


吴恩达深度学习笔记(12)-计算图计算梯度下降
文章图片


其中a是逻辑回归的输出,y是样本的标签值。
现在让我们画出表示这个计算的计算图。 这里先复习下梯度下降法,w和b的修正量可以表达如下:
吴恩达深度学习笔记(12)-计算图计算梯度下降
文章图片




吴恩达深度学习笔记(12)-计算图计算梯度下降
文章图片


如图:在这个公式的外侧画上长方形。
然后计算: ^y=a=σ(z) 也就是计算图的下一步。最后计算损失函数L(a,y)。
有了计算图,我就不需要再写出公式了。
因此,为了使得逻辑回归中最小化代价函数L(a,y),我们需要做的仅仅是修改参数w和b的值。前面我们已经讲解了如何在单个训练样本上计算代价函数的前向步骤。
现在让我们来讨论通过反向计算出导数。 因为我们想要计算出的代价函数L(a,y)的导数,首先我们需要反向计算出代价函数L(a,y)关于a的导数,在编写代码时,你只需要用da 来表示(dL(a,y))/da 。
通过微积分得到:
吴恩达深度学习笔记(12)-计算图计算梯度下降
文章图片




如果你不熟悉微积分,也不必太担心,我会列出本课程涉及的所有求导公式。那么如果你非常熟悉微积分,我们鼓励你主动推导前面介绍的代价函数的求导公式,使用微积分直接求出L(a,y)关于变量a的导数。如果你不太了解微积分,也不用太担心。现在我们已经计算出da,也就是最终输出结果的导数。 现在可以再反向一步,在编写Python代码时,你只需要用dz来表示代价函数L关于z 的导数dL/dz,也可以写成(dL(a,y))/dz,这两种写法都是正确的。 dL/dz=a-y 。
因为
吴恩达深度学习笔记(12)-计算图计算梯度下降
文章图片


并且da/dz=a?(1-a), 而
吴恩达深度学习笔记(12)-计算图计算梯度下降
文章图片


因此将这两项相乘
吴恩达深度学习笔记(12)-计算图计算梯度下降
文章图片




为了简化推导过程,假设n_x这个推导的过程就是我之前提到过的链式法则。
如果你对微积分熟悉,放心地去推导整个求导过程,如果不熟悉微积分,你只需要知道dz=(a-y)已经计算好了。
现在进行最后一步反向推导,也就是计算w和b变化对代价函数L的影响,特别地,可以用:
吴恩达深度学习笔记(12)-计算图计算梯度下降
文章图片




视频中, dw_1 表示?L/(?w_1 )=x_1?dz, dw_2 表示?L/(?w_2 )=x_2?dz, db=dz。
因此,关于单个样本的梯度下降算法,你所需要做的就是如下的事情:
使用公式dz=(a-y)计算dz,
使用
dw_1=x_1?dz 计算dw_1,
dw_2=x_2?dz计算dw_2,
db=dz 来计算db,
然后:
更新w_1=w_1-adw_1,
更新w_2=w_2-adw_2,
更新b=b-αdb。
这就是关于单个样本实例的梯度下降算法中参数更新一次的步骤。


吴恩达深度学习笔记(12)-计算图计算梯度下降
文章图片


现在你已经知道了怎样计算导数,并且实现针对单个训练样本的逻辑回归的梯度下降算法。但是,训练逻辑回归模型不仅仅只有一个训练样本,而是有m个训练样本的整个训练集。
【吴恩达深度学习笔记(12)-计算图计算梯度下降】因此在下一个笔记中,我们将这些思想应用到整个训练样本集中,而不仅仅只是单个样本上。

    推荐阅读