前言:真的一直忘记这两个概念,现在特地用自己的话来总结总结
参考
下采样–>> 7676->3838->1919 -->>缩小图像
原理:对于一幅图像I尺寸为MN,对其进行s倍下采样,即得到(M/s)(N/s)尺寸的得分辨率图像,当然s应该是M和N的公约数才行,如果考虑的是矩阵形式的图像,就是把原始图像ss窗口内的图像变成一个像素,这个像素点的值就是窗口内所有像素的均值;
简单来理解一下就是将图像缩小,以起到过滤作用小、信息冗余的特征,保留关键信息。
1、随机下采样->[详见]
2、EasyEnsemble 和 BalanceCascade->[详见]
3、NearMiss->详见
在不使用任何 HR 和 LR 图像对的情况下学习未知的下采样过程
【废掉小脑阔的错误|上采样、下采样区别及作用】上采样–>> 1919->3838->7676 -->>放大图像
原理:在原有图像像素的基础上在像素点之间采用合适的插值算法插入新的元素,就相当于将33的结构扩大到44、55这样的在进行相应计算。
理解:就是放大原图像,让图像变成更高的分辨率
1 插值法
1.1最近邻插值
1.2双线性插值
1.3双三次插值
1.4分形插值算法
2 可学习的上采样方法
2.1转置卷积层
2.2亚像素层sub-pixel layer
推荐阅读
- 阿里灵杰融合智能算力,全栈AI服务为探索者铺路
- 项目实战|[笔记]Qt5+FFMpeg+Opencv 实现实时美颜直播推流《一》基础知识以及直播服务器配置
- sklearn|Sklearn中数据预处理
- 论文阅读|bert 源码解读(基于gluonnlp finetune-classifier)
- 深度学习|Bert模型
- Bert系列 源码解读 四 篇章
- bert|BERT模型的深度解读
- NLP|【Bert】(十一)简易问答系统--源码解析(bert基础模型)
- NLP|深度学习之文本分类 ----FastText