反向传播是人工神经网络中的一个重要算法,这个方法可以对网络中所有权重计算损失函数的梯度,然后这个梯度会反馈给最优化方法,用来更新权值以最小化损失函数。
反向传播算法的原理 我们先直观的看一下反向传播的原理,假设有一个网络:
文章图片
这是一个三层的神经网络,我们以这个网络为例子,展示下BP算法的过程。
文章图片
其中,每个神经元有两个单元,第一个单元是对其输入信号和对应的权重的乘积求和,第二单元就是激活函数,它的输出就是整个神经元的输出。
文章图片
上图展示了信号在神经网络中是怎么传播的,符号w ( x m ) n \ w_{(xm)n}w(xm)n? 表示输入层第n个神经元和输入信号x m \ x_mxm? 之间连接的权重,y n \ y_nyn? ?表示神经元n的输出信号。
文章图片
当信号通过隐含层时,w m n \ w_{mn}wmn? ?表示神经元m和下一层中神经元n之间连接的权重,上一层的输出是该层的输入。
文章图片
然后信号传播到输出层,信号加权求和然后通过激活函数计算,输出最终结果。
以上就是前向传播的过程,接下来是计算误差的向前传播时,每个神经元所贡献的误差,反向传播的名字也由此而来。
文章图片
神经网络模型的预测结果是y,而真实值是z,那么最终的误差为δ = z ? y δ=z-y δ=z?y 。
在之前,几乎不可能直接计算中间层的神经元的误差,因为它们的输出值是未知的,而反向传播算法解决了这个问题,从最终结果的误差,一步步反推中间神经元的误差。
文章图片
输出层的误差 δ,经连接反向传回第二层,经权重w 46 \ w_{46}w46?w 56 \ w_{56}w56?分配,第二层的两个神经元误差分别变为δ w 46 \ δw_{46}δw46?δ w 56 \ δw_{56}δw56? ,信号是正向在神经网络中流动,而误差是反向流动,其余计算过程两者是相同的。
【深度学习|神经网络之BP(反向传播算法)的原理介绍】
文章图片
在从第二层到第一层,当每个神经元的误差都被计算出来后,神经元之间连接的权重就可以被更新了。
文章图片
文章图片
文章图片
文章图片
这里的 η 表示学习速率,是人为设置的一个参数,而 [公式] ,表示的是神经元激活函数的导数。这里可以理解为,新的权重,在之前的基础上,在神经元的梯度方向上前进一小步。
推荐阅读
- 深度学习|反向传播算法(BP神经网络)
- 神经网络|神经网络之BP算法(误差反向传播)
- 机器学习|机器学习(神经网络的代价函数及反向传播算法)
- python机器学习|从零到一实现神经网络(五):数学微分法更新权重参数
- 自动驾驶|AirSim学习笔记1(《端到端自动驾驶》AutonomousDrivingCookbook)
- 人工智能|我的天,强化学习还能用在自动驾驶领域()
- 自动驾驶|强化学习基础篇 OpenAI Gym 环境搭建demo
- 前沿技术|深度学习框架中的自动微分及高阶导数
- python|python学习计划大全(从入门到实战)