code:https://github.com/chenjun2hao/dler.collection涨点模块的对比 对比测试
- SE通道注意力
- CBAM通道注意+空间注意力
- Coordinate Attention,个人认为是一种通道注意力+x方向空间+y方向空间注意力机制。其思路很像Strip Pooling
Module | macs/flops | params |
---|---|---|
SE | 40993792.0 | 8192.0 |
CBAM | 56706560.0 | 8290.0 |
CA | 95923200.0 | 12848.0 |
文章图片
推荐阅读
- 网络|计算机网络-网络安全
- 深度学习100例|深度学习100例 - 卷积神经网络(CNN)实现车牌识别 | 第15天
- 深度学习|【李宏毅机器学习】Convolutiona Neural Network 卷积神经网络(p17) 学习笔记
- 李宏毅机器学习笔记|李宏毅机器学习Task06——卷积神经网络CNN
- Machine|BN层
- 深度学习|Keras卷积神经网络识别CIFAR-10图像(1)
- 深度学习与神经网络|计算机视觉之卷积神经网络
- 回归预测|回归预测 | MATLAB实现CNN-LSTM(卷积长短期记忆神经网络)多输入单输出
- yolo|CSPNET: A NEW BACKBONE THAT CAN ENHANCE LEARNING CAPABILITY OF CNN