torch.nn——神经网络工具箱
Part4 神经网络工具箱
autograd虽然可以实现深度学习模型,但是抽象程度低,编写代码量大。这种情况下,torch.nn应运而生。
torch.nn的核心数据结构是Module,这是一个抽象概念,既可以表示神经网络中的某个层,也可以表示含多个层的神经网络。
最常见的做法是,继承nn.Module,撰写自己的网络/层。下面利用nn.Module实现自己的全连接层。
输入y与输出x满足
$$y=Wx+b$$
可见,全连接层的实现非常简单,其代码量不超过10行,但需注意以下几点:
- 自定义层Linear必须继承nn.Module,并且在其构造函数中需调用nn.Module的构造函数,即super(Linear, self).init() 或nn.Module.init(self),推荐使用第一种用法,尽管第二种写法更直观。
- 在构造函数init中必须自己定义可学习的参数,并封装成Parameter,如在本例中我们把w和b封装成parameter。parameter是一种特殊的Variable,但其默认需要求导(requires_grad = True),感兴趣的读者可以通过nn.Parameter??,查看Parameter类的源代码。
- forward函数实现前向传播过程,其输入可以是一个或多个variable,对x的任何操作也必须是variable支持的操作。
- 无需写反向传播函数,因其前向传播都是对variable进行操作,nn.Module能够利用autograd自动实现反向传播,这点比Function简单许多。
- 使用时,直观上可将layer看成数学概念中的函数,调用layer(input)即可得到input对应的结果。它等价于layers.call(input),在call函数中,主要调用的是 layer.forward(x),另外还对钩子做了一些处理。所以在实际使用中应尽量使用layer(x)而不是使用layer.forward(x),关于钩子技术将在下文讲解。
- Module中的可学习参数可以通过named_parameters()或者parameters()返回迭代器,前者会给每个parameter都附上名字,使其更具有辨识度。
可见利用Module实现的全连接层,比利用Function实现的更为简单,因其不再需要写反向传播函数。
- 构造函数init中,可利用自定义的Linear层(module),作为当前module对象的一个子module,它的可学习参数,都会成为当前module的可学习参数。
卷积,池化层。
4.1.2 激活函数 PyTorch实现了常见的激活函数,其具体的接口信息可参见官方文档[1],这些激活函数可作为独立的layer使用。这里将介绍最常用的激活函数ReLU,其数学表达式为:
$$ReLU(x)=max(0,x)$$
relu = nn.ReLU(inplace=True)
input = V(t.randn(2, 3))
print(input)
output = relu(input)
print(output) # 小于0的都被截断为0
# 等价于input.clamp(min=0)
Variable containing:
0.4437 -1.2088 -0.6859
-1.9389 -0.5563 -1.5315
[torch.FloatTensor of size 2x3]Variable containing:
0.44370.00000.0000
0.00000.00000.0000
[torch.FloatTensor of size 2x3]
以上的例子中基本都是将每一层的输出输入到下一层中,这样的网络成为前馈神经网络.对于此类网络每次都写forward函数会有些麻烦,所以有两种简化方式,ModuleList和Sequential.Sequential是一个特殊的,Module,包含几个子module,先前传播的时候会将输入层传递下去.ModuleList也是特殊的module,包含几个子module,可以像List一样使用,但不能直接把输入传递到ModuleLis.
Sequential的三种写法
net1 = nn.Sequential()
net1.add_module('conv',nn.Conv2d(3,3,3))
net1.add_module('batchnorm',nn.BatchNorm2d(3))
net1.add_moudle('activation_layer', nn.ReLU())net2 = nn.Sequential(
# Conv2d是二维卷积,第一个参数为输入通道数,第二个为输出通道数
nn.Conv2d(3,3,3),
nn.BatchNorm2d(3),
nn.ReLU()
)from collections import OrderedDict
net3 = nn.Sequential(OrderedDict([
('Conv1',nn.Conv2d(3,3,3)),
('bn1',BatchNorm2d(3)),
('relu1', nn.ReLU())
]))
print('net1:',net1)
print('net2:',net2)
print('net3:',net3)
可根据名字或序号取出子module
input:
net1.conv, net2[0], net3.conv1
output:
(Conv2d(3, 3, kernel_size=(3, 3), stride=(1, 1)),
Conv2d(3, 3, kernel_size=(3, 3), stride=(1, 1)),
Conv2d(3, 3, kernel_size=(3, 3), stride=(1, 1)))
你累了,该摸了,今天就到这吧。——Mona
- 【torch.nn——神经网络工具箱】http://pytorch.org/docs/nn.html#non-linear-activations ?
推荐阅读
- 急于表达——往往欲速则不达
- 慢慢的美丽
- 《真与假的困惑》???|《真与假的困惑》??? ——致良知是一种伟大的力量
- 2019-02-13——今天谈梦想()
- 考研英语阅读终极解决方案——阅读理解如何巧拿高分
- Ⅴ爱阅读,亲子互动——打卡第178天
- 低头思故乡——只是因为睡不着
- 取名——兰
- 每日一话(49)——一位清华教授在朋友圈给大学生的9条建议
- 广角叙述|广角叙述 展众生群像——试析鲁迅《示众》的展示艺术