关于计算损失函数Python的信息

从零开始用Python构建神经网络从零开始用Python构建神经网络
动机:为了更加深入的理解深度学习,我们将使用 python 语言从头搭建一个神经网络,而不是使用像 Tensorflow 那样的封装好的框架 。我认为理解神经网络的内部工作原理,对数据科学家来说至关重要 。
这篇文章的内容是我的所学,希望也能对你有所帮助 。
神经网络是什么?
介绍神经网络的文章大多数都会将它和大脑进行类比 。如果你没有深入研究过大脑与神经网络的类比,那么将神经网络解释为一种将给定输入映射为期望输出的数学关系会更容易理解 。
神经网络包括以下组成部分
? 一个输入层,x
? 任意数量的隐藏层
? 一个输出层 , ?
? 每层之间有一组权值和偏置,W and b
? 为隐藏层选择一种激活函数,σ 。在教程中我们使用 Sigmoid 激活函数
下图展示了 2 层神经网络的结构(注意:我们在计算网络层数时通常排除输入层)
2 层神经网络的结构
用 Python 可以很容易的构建神经网络类
训练神经网络
这个网络的输出 ? 为:
你可能会注意到,在上面的等式中 , 输出 ? 是 W 和 b 函数 。
因此 W 和 b 的值影响预测的准确率. 所以根据输入数据对 W 和 b 调优的过程就被成为训练神经网络 。
每步训练迭代包含以下两个部分:
? 计算预测结果 ?,这一步称为前向传播
? 更新 W 和 b,,这一步成为反向传播
下面的顺序图展示了这个过程:
前向传播
正如我们在上图中看到的,前向传播只是简单的计算 。对于一个基本的 2 层网络来说,它的输出是这样的:
我们在 NeuralNetwork 类中增加一个计算前向传播的函数 。为了简单起见我们假设偏置 b 为0:
但是我们还需要一个方法来评估预测结果的好坏(即预测值和真实值的误差) 。这就要用到损失函数 。
损失函数
常用的损失函数有很多种 , 根据模型的需求来选择 。在本教程中 , 我们使用误差平方和作为损失函数 。
误差平方和是求每个预测值和真实值之间的误差再求和,这个误差是他们的差值求平方以便我们观察误差的绝对值 。
训练的目标是找到一组 W 和 b,使得损失函数最好小,也即预测值和真实值之间的距离最小 。
反向传播
我们已经度量出了预测的误差(损失),现在需要找到一种方法来传播误差,并以此更新权值和偏置 。
为了知道如何适当的调整权值和偏置,我们需要知道损失函数对权值 W 和偏置 b 的导数 。
回想微积分中的概念,函数的导数就是函数的斜率 。
梯度下降法
如果我们已经求出了导数,我们就可以通过增加或减少导数值来更新权值 W 和偏置 b(参考上图) 。这种方式被称为梯度下降法 。
但是我们不能直接计算损失函数对权值和偏置的导数,因为在损失函数的等式中并没有显式的包含他们 。因此,我们需要运用链式求导发在来帮助计算导数 。
链式法则用于计算损失函数对 W 和 b 的导数 。注意,为了简单起见 。我们只展示了假设网络只有 1 层的偏导数 。
这虽然很简陋 , 但是我们依然能得到想要的结果—损失函数对权值 W 的导数(斜率),因此我们可以相应的调整权值 。
现在我们将反向传播算法的函数添加到 Python 代码中
为了更深入的理解微积分原理和反向传播中的链式求导法则,我强烈推荐 3Blue1Brown 的如下教程:
Youtube:
整合并完成一个实例
既然我们已经有了包括前向传播和反向传播的完整 Python 代码,那么就将其应用到一个例子上看看它是如何工作的吧 。
神经网络可以通过学习得到函数的权重 。而我们仅靠观察是不太可能得到函数的权重的 。
让我们训练神经网络进行 1500 次迭代 , 看看会发生什么 。注意观察下面每次迭代的损失函数 , 我们可以清楚地看到损失函数单调递减到最小值 。这与我们之前介绍的梯度下降法一致 。
让我们看看经过 1500 次迭代后的神经网络的最终预测结果:
经过 1500 次迭代训练后的预测结果
我们成功了!我们应用前向和方向传播算法成功的训练了神经网络并且预测结果收敛于真实值 。
注意预测值和真实值之间存在细微的误差是允许的 。这样可以防止模型过拟合并且使得神经网络对于未知数据有着更强的泛化能力 。
下一步是什么?
幸运的是我们的学习之旅还没有结束 , 仍然有很多关于神经网络和深度学习的内容需要学习 。例如:
? 除了 Sigmoid 以外 , 还可以用哪些激活函数
? 在训练网络的时候应用学习率
? 在面对图像分类任务的时候使用卷积神经网络
我很快会写更多关于这个主题的内容,敬请期待!
最后的想法
我自己也从零开始写了很多神经网络的代码
虽然可以使用诸如 Tensorflow 和 Keras 这样的深度学习框架方便的搭建深层网络而不需要完全理解其内部工作原理 。但是我觉得对于有追求的数据科学家来说,理解内部原理是非常有益的 。
这种练习对我自己来说已成成为重要的时间投入,希望也能对你有所帮助
交叉熵损失函数是什么?平滑函数 。
交叉熵损失函数计算损失函数Python , 也称为对数损失或者logistic损失 。当模型产生了预测值之后计算损失函数Python,将对类别的预测概率与真实值(由0或1组成)进行不比较,计算所产生的损失,然后基于此损失设置对数形式的惩罚项 。
在神经网络中 , 所使用的Softmax函数是连续可导函数,这使得可以计算出损失函数相对于神经网络中每个权重的导数(在《机器学习数学基础》中有对此的完整推导过程和案例,这样就可以相应地调整模型的权重以最小化损失函数 。
扩展资料计算损失函数Python:
注意事项计算损失函数Python:
当预测类别为二分类时,交叉熵损失函数的计算公式如下图,其中y是真实类别(值为0或1),p是预测类别的概率(值为0~1之间的小数) 。
计算二分类的交叉熵损失函数的python代码如下图 , 其中esp是一个极小值,第五行代码clip的目的是保证预测概率的值在0~1之间,输出的损失值数组求和后,就是损失函数最后的返回值 。
参考资料来源:百度百科-交叉熵
参考资料来源:百度百科-损失函数
yolov3 损失函数YOLOv3论文解析 -
YOLOv3 损失函数主要分为loss_xy,loss_wh,loss_confidence,loss_class
loss_xy:darknet与kreas稍有不同 。
darknet是sse,kreas是二值交叉熵 。一种解释如下计算损失函数Python:bounding box回归是Square Error Loss,分类 and object confidence都是交叉熵 计算损失函数Python我的理解:作者使用(包括bounding box的位置回归和Logistic 二分类)delta的平方 。注意的是,对于Logistic回归,正好方差损失和交叉熵损失的求导形式是一样的,都是output - label的形式 。也就是说,本来我们这里应该用(二元分类的)交叉损失熵的,不过作者这里直接用方差损失代替计算损失函数Python了,因为数值趋势上是一样的 。
loss_wh:基本一致,主要联合上面的对小物体回归损失乘了一个系数,scale=2-w*h,越小的物体,回归损失越大,有利于模型更好的检测小物体 。
loss_confidence: 分为obj和no_obj两种情况计算 。对于obj(该检测框有对应的真实框),二值交叉熵;对于no_obj(该检测框无对应的真实框),当检测框和真实框的iou低于0.5,需要计算no_obj_confidence_loss , 也是二值交叉熵 。
loss_class:二值交叉熵
主要参考以上两篇文章
Pytorch常用的交叉熵损失函数CrossEntropyLoss()详解 ????在使用pytorch深度学习框架,计算损失函数的时候经常回到这么一个个函数:
????该损失函数结合了和两个函数 。它在做分类(具体几类)训练的时候是非常有用的 。在训练过程中,对于每个类分配权值,可选的参数权值应该是一个1D张量 。当你有一个不平衡的训练集时,这是是非常有用的 。那么针对这个函数,下面将做详细的介绍 。
???? 交叉熵主要是用来判定实际的输出与期望的输出的接近程度 ,为什么这么说呢,举个例子:在做分类的训练的时候,如果一个样本属于第K类,那么这个类别所对应的的输出节点的输出值应该为1,而其他节点的输出都为0,即[0,0,1,0,….0,0],这个数组也就是样本的Label , 是神经网络最期望的输出结果 。也就是说用它来衡量网络的输出与标签的差异,利用这种差异经过反向传播去更新网络参数 。
在说交叉熵之前,先说一下 信息量 与 熵。
???? 信息量: 它是用来衡量一个事件的不确定性的;一个事件发生的概率越大 , 不确定性越小,则它所携带的信息量就越小 。假设X是一个离散型随机变量,其取值集合为X,概率分布函数为,我们定义事件的信息量为:
当时,熵将等于0,也就是说该事件的发生不会导致任何信息量的增加 。
???? 熵: 它是用来衡量一个系统的混乱程度的,代表一个系统中信息量的总和;信息量总和越大,表明这个系统不确定性就越大 。
????举个例子:假如小明和小王去打靶,那么打靶结果其实是一个0-1分布,X的取值有{0:打中,1:打不中} 。在打靶之前我们知道小明和小王打中的先验概率为10%,99.9% 。根据上面的信息量的介绍,我们可以分别得到小明和小王打靶打中的信息量 。但是如果我们想进一步度量小明打靶结果的不确定度,这就需要用到熵的概念了 。那么如何度量呢,那就要采用 期望 了 。我们对所有可能事件所带来的信息量求期望,其结果就能衡量小明打靶的不确定度:
与之对应的,小王的熵(打靶的不确定度)为:????虽然小明打靶结果的不确定度较低,毕竟十次有9次都脱靶;但是小王打靶结果的不确定度更低,1000次射击只有1次脱靶,结果相当的确定 。
???? 交叉熵: 它主要刻画的是实际输出(概率)与期望输出(概率)的距离,也就是交叉熵的值越小 , 两个概率分布就越接近 。假设概率分布p为期望输出,概率分布q为实际输出,为交叉熵 , 则????那么该公式如何表示,举个例子,假设N=3,期望输出为 , 实际输出,,那么:通过上面可以看出,q2与p更为接近,它的交叉熵也更小 。
????Pytorch中计算的交叉熵并不是采用这种方式计算得到的,而是交叉熵的另外一种方式计算得到的:它是交叉熵的另外一种方式 。
????Pytorch中CrossEntropyLoss()函数的主要是将softmax-log-NLLLoss合并到一块得到的结果 。
????1、Softmax后的数值都在0~1之间,所以ln之后值域是负无穷到0 。
????2、然后将Softmax之后的结果取log , 将乘法改成加法减少计算量,同时保障函数的单调性
????3、NLLLoss的结果就是把上面的输出与Label对应的那个值拿出来(下面例子中就是:将log_output\logsoftmax_output中与y_target对应的值拿出来),去掉负号,再求均值 。
下面是我仿真写的一个例子:
最计算得到的结果为:
????通过上面的结果可以看出,直接使用pytorch中的loss_func=nn.CrossEntropyLoss()计算得到的结果与softmax-log-NLLLoss计算得到的结果是一致的 。
[1]
[2]
[3]
更多自然语言处理、pytorch相关知识,还请关注AINLPer公众号,极品干货即刻送达 。
【关于计算损失函数Python的信息】计算损失函数Python的介绍就聊到这里吧 , 感谢你花时间阅读本站内容 , 更多关于、计算损失函数Python的信息别忘了在本站进行查找喔 。

    推荐阅读