深度学习经典研读——ImageNet Classification with Deep Convolutional Neural Networks
- 作者
- 摘要
- 引言
- 数据集
- 架构
- Relu非线性
- 多GPU训练
- 局部响应归一化
- 重叠池化
- 整体架构
- 减少过拟合
- 数据增强
- 随机失活
- 训练细节
- 结果
- 定性评估
- 讨论
论文的题目就是标题啦,想必大家都听说过它的大名!介绍了一个经典的卷积神经网络
这里有几点要提醒大家
- 不要带入当下的环境
- 尽量把自己带入当时论文创作的环境下思考他为什么能脱颖而出
- 不要纠结论文里的深度两个字!
文章图片
看到作者,想必大家学深度学习的都有听说过,都是巨头啊~!质量一定不错,可以学到好多东西!所以大家跟着我一起研读吧!
摘要
文章图片
大概意思是:我们训练了一个大型深度卷积神经网络来将ImageNet LSVRC-2010竞赛的120万高分辨率的图像分到1000不同的类别中。在测试数据上,我们得到了top-1 37.5%, top-5 17.0%的错误率,这个结果比目前的最好结果好很多。这个神经网络有6000万参数和650000个神经元,包含5个卷积层(某些卷积层后面带有最大化池化层)和3个全连接层,最后是一个1000维的softmax。为了训练的更快,我们使用了非饱和神经元并对卷积操作进行了非常有效的GPU实现。为了减少全连接层的过拟合,我们采用了一个最近开发的名为dropout的正则化方法,结果证明是非常有效的。我们也使用这个模型的一个变种参加了ILSVRC-2012竞赛,赢得了冠军并且与第二名 top-5 26.2%的错误率相比,我们取得了top-5 15.3%的错误率。
引言
文章图片
文章图片
文章图片
- 介绍了一下论文用的数据集
- 指出因此,与具有层次大小相似的标准前馈神经网络,CNNs有更少的连接和参数,因此它们更容易训练,而它们理论上的最佳性能可能仅比标准前馈神经网络差一点。
- GPU训练
文章图片
架构
文章图片
Relu非线性
文章图片
文章图片
文章图片
- 提出了Relu的优势,除了我们熟知的可以规避一些和sigmoid那样的梯度消失问题还可以缩短训练时间
文章图片
当时是网络过大才放到多GPU,但是随着==“科技的进步”==现在一般是不同模型放到不同gpu上测试模型效果,或者多gpu训练数据
局部响应归一化
文章图片
重叠池化
文章图片
整体架构
文章图片
文章图片
文章图片
减少过拟合
文章图片
数据增强
文章图片
文章图片
随机失活
文章图片
训练细节
文章图片
文章图片
文章图片
文章图片
结果
文章图片
文章图片
文章图片
定性评估
文章图片
文章图片
讨论 【深度学习经典研读——ImageNet Classification with Deep Convolutional Neural Networks】
文章图片
推荐阅读
- C语言学习|第十一届蓝桥杯省赛 大学B组 C/C++ 第一场
- paddle|动手从头实现LSTM
- pytorch|使用pytorch从头实现多层LSTM
- 推荐系统论文进阶|CTR预估 论文精读(十一)--Deep Interest Evolution Network(DIEN)
- pytorch|YOLOX 阅读笔记
- 前沿论文|论文精读(Neural Architecture Search without Training)
- 联邦学习|【阅读笔记】Towards Efficient and Privacy-preserving Federated Deep Learning
- OpenCV|OpenCV-Python实战(18)——深度学习简介与入门示例
- 深度学习|深度学习笔记总结
- 《繁凡的深度学习笔记》|一文绝对让你完全弄懂信息熵、相对熵、交叉熵的意义《繁凡的深度学习笔记》第 3 章 分类问题与信息论基础(中)(DL笔记整理