Pytorch学习笔记|【Pytorch学习笔记】4.细讲Pytorch的gather函数是什么——从Softmax回归中交叉熵损失函数定义的角度讲述
本文接着慢慢磨pytorch基础。本来是想记录一下心得,结果码着码着又讲成了story。
文章目录
-
- gather函数:原始数据矩阵 根据索引矩阵 取到对应值矩阵
-
- 可以先看看的例子
- 官方文档解释
- 从交叉熵损失函数定义的角度理解gather函数的使用
- torch.gather()
gather函数:原始数据矩阵 根据索引矩阵 取到对应值矩阵 我们在学习Softmax回归从零实现的时候,需要定义一个交叉熵损失函数。我们会使用torch.gather函数的方法取原始数据矩阵中对应位置的值,接着再取log等处理。
可以先看看的例子
可以先囫囵吞枣地看一下gather函数的例子:
# 变量y_hat是2个样本在3个类别的预测概率,变量y是这2个样本的标签类别。
import torch
y_hat = torch.tensor([[0.1, 0.3, 0.6], [0.3, 0.2, 0.5]])
# y是一个索引矩阵,包含了每个样本的正确类别的位置。
# 比如第1个样本是第1类,第2个样本是第3类。0即第1个,2即第2个。
y = torch.LongTensor([0, 2])
y_hat.gather(1, y.view(-1, 1))# 输出:
tensor([[0.1000],
[0.5000]])
可以看到y是一个索引矩阵,包含了每个样本的正确类别的位置。比如第1个样本是第1类,第2个样本是第3类(0是第1个,2是第3个)。
原始数据矩阵y_hat使用gather传入y后,成功取到了两个样本的预测概率分布 各自对应正确类别下的 概率。
所以这里已经可以理解:gather函数是 原始数据矩阵 根据 索引矩阵 取到 对应值矩阵 的一个过程。
【Pytorch学习笔记|【Pytorch学习笔记】4.细讲Pytorch的gather函数是什么——从Softmax回归中交叉熵损失函数定义的角度讲述】这样我们就可以定义交叉熵损失函数:
def cross_entropy(y_hat, y):
return - torch.log(y_hat.gather(1, y.view(-1, 1)))
官方文档解释
官方文档中对gather函数的描述非常简洁,即按设定的维度方向,按该维度上的索引值取值。
文章图片
给的例子也很直白。但是直观上看这是一个逻辑上非常绕的函数,按维度方向根据索引取值也是很难想象的。
我的思考是为什么我们要用这么别扭的方法取值呢?定义交叉熵损失函数为啥要用gather呢?
从交叉熵损失函数定义的角度理解gather函数的使用
- 在Softmax回归中,我们知道要使用交叉熵损失函数来计算两个概率分布之间的差异。
还是一开始的例子,我们有 2个样本3类别的预测概率分布y_hat 和实际的概率分布y,如图:
文章图片
- 根据交叉熵损失函数:
文章图片
对于softmax回归来说,真实的概率分布只有在正确的类别值为1,所以损失函数最后可以化简为:
? log ? y ^ p ( i ) -\log \hat{y}_{p}^{(i)} ?logy^?p(i)?。即在预测概率分布中取到第p个值,而p就是索引值,对应正确的类别。
- 对于一个batch的数据来说,每一行是一个样本的各类别概率分布,每一行都会有一个正确分类,位于第 p ( i ) p^{(i)} p(i)列。这个第 p ( i ) p^{(i)} p(i)列也是真实分布y每一行中1的位置。所以我们只要知道每个样本正确的类别所在列的标号就行了。
即对于实际概率分布y矩阵:
文章图片
我们只需要把y矩阵转变为索引矩阵。
故对 y_hat 的每个样本取索引值就得到了对应类别的预测概率。之后就可以进行取log等操作来定义损失函数了。
- 这样,根据一个索引矩阵对一个原始数据矩阵的行(或列)取索引对应的值,就是gather函数的具体做的事了。而交叉熵损失函数的定义正好符合了这样的数据特征,所以就能正好使用gather函数了。
(这里的索引矩阵y在实际例子中就是一个batch数据X的对应label y。)
6. 将真实概率矩阵(抑或叫One-Hot编码矩阵)缩减为索引矩阵可以大大减少内存开销。
7. 索引值矩阵的维数没有变化,依然保留了矩阵并行运算效率高的优点。
torch.gather() 讲了半天交叉熵损失函数,最后讲讲gather函数的使用。
对于初学者来说,最重要的参数就是dim。在开头定义交叉熵损失函数的时候
y_hat.gather(1, y.view(-1, 1))
,参数dim=1,以行为方向进行索引。直接用二维Tensor举例:
import torch
src = https://www.it610.com/article/torch.arange(1, 16).reshape(5, 3)"""
src:
tensor([[ 1,2,3],
[ 4,5,6],
[ 7,8,9],
[10, 11, 12],
[13, 14, 15]])
"""# 定义两个索引矩阵
index1 = torch.tensor([[0, 1, 2], [2, 3, 4], [0, 2, 4]])
index2 = torch.tensor([[1, 2, 0, 2, 1], [1, 2, 1, 0, 0]]).t()
"""
index1:
tensor([[0, 1, 2],
[2, 3, 4],
[0, 2, 4]])
index2:
tensor([[1, 1],
[2, 2],
[0, 1],
[2, 0],
[1, 0]])
"""# axis=0时,
output1 = src.gather(dim=0, index=index1)
print(output1)
"""
输出:
tensor([[ 1,5,9],
[ 7, 11, 15],
[ 1,8, 15]])
"""# axis=1
output2 = src.gather(dim=1, index=index2)
print(output2)
"""
输出:
tensor([[ 2,2],
[ 6,6],
[ 7,8],
[12, 10],
[14, 13]])
"""
当一个数据矩阵用一个索引矩阵在某个维度方向上取值,那个方向上的所有值 按 索引矩阵中那个方向的索引值 来取值。
我们直接看下图就更加清晰明了(原图中Dim以1、2来说明,在pytorch中即为0、1):
文章图片
指定了一个方向以后,index以指定方向一刀切下去,对这个方向的数字取值。
index和src的维度必须要一致,且除去切的那一维,其余维度shape也一致(扩展到三维也是这样)。
推荐阅读
- 论文阅读笔记|【Paper Reading】自注意力机制以及在Alphafold2中的应用
- Pytorch学习|深入理解PyTorch中的gather函数
- 深度学习|pytorch学习三、softmax回归
- 用python做一个文本翻译器,自动将中文翻译成英文,超方便的
- 蓝桥杯|2021年第十二届蓝桥杯省赛第二场Python组(真题+解析+代码)(城邦)
- 蓝桥杯|2021年第十二届蓝桥杯省赛第二场Python组(真题+解析+代码)(格点)
- 电影数据分析COMP 2406
- python 包之 httpx 请求操作教程
- Python中的七个小技巧