来自中科院自动化所的“不规则卷积神经网络”。
文章链接: 《Irregular Convolutional Neural Networks》
从直观上来看,一个不规则的卷积核(其shape可以自动学习)似乎更适应输入的pattern。 但考虑更多方面,比如学习效率、操作复杂度这些因素。个人认为,不规则卷积目前不是一个很有应用价值的工作。
1. 方法介绍
文章图片
上图中,图(a)表示一个不规则卷积; 图(b)表示,尽管该不规则卷积可由两个3x3卷积联合操作得到,但所需要的卷积核参数较多;图(c)表示不规则卷积的学习方法,即可以由规则卷积初始化,然后不断学习位置变换。
2. 要点介绍
(1)如何描述一个不规则卷积核?
为了描述一个不规则卷积核,需要在原有的权重信息W的基础上增加一个位置信息P。
文章图片
如下图所示,P描述的是每一个权重的具体位置。
文章图片
(2)如何学习一个不规则卷积核?
学习的过程其实就是一个BP的过程:“参与才能求导,求导就能更新。”
那么位置信息如何参与到网络的计算中呢? 双线性插值。
文章图片
具体的,根据不规则卷积核的位置,对输入进行双线性插值变换,然后通过矩阵乘法完成不规则卷积。整个操作如下图:
文章图片
下式为双线性插值,据此可以对位置信息进行求导更新。
【深度学习基础|不规则卷积神经网络】
文章图片
文章图片
3. 分析
- (1)参数冗余增加。 一个同样大小的不规则卷积核和规则卷积核,前者要比后者多2倍的参数用来记录参数生效位置。
- (2)训练复杂度增加。 需要学习更多间接参数。
- (3)计算复杂度增加。 如果有N个不同shape的卷积核,则需要对输入做N次不同的双线性插值。
推荐阅读
- C语言学习|第十一届蓝桥杯省赛 大学B组 C/C++ 第一场
- paddle|动手从头实现LSTM
- pytorch|使用pytorch从头实现多层LSTM
- 推荐系统论文进阶|CTR预估 论文精读(十一)--Deep Interest Evolution Network(DIEN)
- pytorch|YOLOX 阅读笔记
- 前沿论文|论文精读(Neural Architecture Search without Training)
- 联邦学习|【阅读笔记】Towards Efficient and Privacy-preserving Federated Deep Learning
- OpenCV|OpenCV-Python实战(18)——深度学习简介与入门示例
- 深度学习|深度学习笔记总结
- 《繁凡的深度学习笔记》|一文绝对让你完全弄懂信息熵、相对熵、交叉熵的意义《繁凡的深度学习笔记》第 3 章 分类问题与信息论基础(中)(DL笔记整理