文章目录
- 1 梯度下降引入
- 2 计算图
- 3 链式求导
- 4 PyTorch中的Tensor
-
- 4.1 代码片段学习
- 5 整体代码
写在前面:之前学习的都是简单的预测问题,涉及的函数是一维线性函数,在本节内容中,要开始介绍稍微复杂一点的神经网络了,参数w不再是1个,而是很多个!
1 梯度下降引入 【PyTorch深度学习|PyTorch深度学习实践(三)】
- 在第一列的五个圆圈和六个圆圈之间,我们可以看到有30条线。第一列的五个圆圈表示51的输入x,第二列表示第一层的61输出,那么中间
文章图片
- 很显然是一个6*5的权重矩阵。也就是说,这里一共有30个参数。
2 计算图
文章图片
- 其中,MM表示矩阵乘法。
文章图片
- 但是,对于这样的两层直接输入输出的网络层来说,按照上图的方式可以进行化简,并最终可以化简得到一个线性层。(所以,这两层完全没有意义,其实就是相当于一层)
文章图片
- 因此,我们就要在第一层结束之后,加一个非线性的函数。如下图所示。
文章图片
3 链式求导
文章图片
- 前向传播的过程很好理解,就是 f = w ? x f=w*x f=w?x,算loss的过程这里省略。
- 反向传播呢,就是在算出loss之后,需要求出loss对z的导数,然后在算出f的时候,记录下z对x的导数和x对w的导数,然后在往前,根据链式法则得到loss对x的导数和loss对w的导数!
文章图片
导数是存储在变量中的,不是计算模块中的
4 PyTorch中的Tensor
文章图片
- Tensor有两个数据成员,data和Grad。
import torch
w = torch.Tensor([1.0])
w.requires_grad = True
- w是一个参数,这里随机初始化为1.0,是一个0维的常量。
- 并且要求它去计算梯度(grad)【一般是默认不计算的】
def forward(x):
return x * w
- forward函数作用:数乘。w是Tensor向量,x不清楚是否是Tensor,这里在计算时就会对函数做一个强制类型转换。
def loss(x, y):
y_pred = forward(x)
return (y_pred - y) ** 2
- 这个计算loss的过程,要能够用计算图去表示出来。
文章图片
for epoch in range(100):
for x, y in zip(x_data, y_data):
l = loss(x, y)
l.backward()# .grad 会累积数据的
print(
w.grad.data.zero_()# 在更新之后,需要把梯度数据清零
张量是不能直接去进行加法计算的,Tensor做加法会生成计算图,导致内存消耗。一定要加上 .item
5 整体代码
- 可以全部复制粘贴到.py文件中,可以直接运行
import torch
import matplotlib.pyplot as pltx_data = https://www.it610.com/article/[1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]w = torch.Tensor([1.0])
w.requires_grad = Truedef forward(x):
return w * xdef loss(x, y):
y_pred = forward(x)
return (y_pred - y) ** 2print("在模型计算之前对于x=4的预测是:", 4, forward(4).item)epoch_list = []
loss_list = []for epoch in range(100):
for x, y in zip(x_data, y_data):
l = loss(x, y)
l.backward()
print('\tgrad:', x, y, w.grad.item())
w.data = https://www.it610.com/article/w.data - 0.01 * w.grad.dataw.grad.data.zero_()
epoch_list.append(epoch)
loss_list.append(l.item())print("process:", epoch, l.item())print("在模型计算之后对于x=4的预测是:", 4, forward(4).item())
plt.plot(epoch_list, loss_list)
plt.ylabel('Loss')
plt.xlabel('epoch')
plt.show()
文章图片
文章图片
学习资料:刘二大人
推荐阅读
- 脑技术|人工智能、机器学习、神经网络和深度学习的发展历程(下)
- 【跟李沐学AI】|【跟李沐学AI】11.1 迁移学习
- 深度学习_李宏毅|【李宏毅2021机器学习深度学习】10-1 概述领域自学习(Domain Adaptation)
- Keras|从零开始TensorFlow---利用Keras 搭建CNN网络
- 机器学习基础|多标签学习之白话版
- 其它经验|SMALE 实验室投稿期刊选择
- NLP|Raki的NLP竞赛topline解读(NBME - Score Clinical Patient Notes)
- 深度学习|神经网络之激活函数
- 人工智能|隐马尔可夫模型基础介绍