总述 这篇paper是新时代人工智能CV中的Inpainting领域中的开山之作,之前的超级传统的方法是通过在图像补丁的庞大的素材库中寻找合适的补丁来填充缺失区域,非常不可靠,如下图所示:
文章图片
如上图所示,可以看到几乎完全没有可信度。作者受到了自动编码器的启发,创新性地提出了上下文编码器进行特征的学习,并对损失函数进行了调整,将L2重建损失函数和对抗损失进行融合,使得该工作既连贯又清晰。此外,还分别验证了三种掩码方式:(a) Central region (b) Random block ? Random region,并在Paris StreetView Dataset.和 ImageNet 数据集上验证了效果。
注:作者说自动编码器不能进行语义层面的学习,这是缺点所在
一、方法详述
0. Overall 编码器获取具有缺失区域的输入图像并生成该图像的潜在特征表示。解码器采用此特征表示并产生丢失的图像内容。
1. Encoder(编码器) 【人工智能论文精度|论文精度 —— 2016 CVPR 《Context Encoders: Feature Learning by Inpainting》】Encoder利用AlexNet网络
2. Channel-wise fully-connected layer 假如编码器的输出是通道数为m的 nn的shape,同样,解码器的输入也是通道数为m的 nn的shape&
推荐阅读
- 深度学习|吴恩达深度学习之一《神经网络和深度学习》学习笔记
- 深度学习自学笔记|Pytorch常见报错、踩坑点总结(持续更新)
- xhtml|CSS学习笔记
- 机器学习|机器学习之卷积神经网络(一)
- #|模型压缩 | TIP 2022 - 蒸馏位置自适应(Spot-adaptive Knowledge Distillation)
- 深度学习|ACmix 自注意力和卷积集成 On the Integration of Self-Attention and Convolution+
- 计算机视觉|ECCV2022|何恺明团队开源ViTDet(只用普通ViT,不做分层设计也能搞定目标检测...)
- 卷积|何恺明团队新作(只用普通ViT,不做分层设计也能搞定目标检测)
- 卷积|何恺明大神新作(一种用于目标检测的主流ViT架构,效果SOTA)