环境:服务器cuda10.2
1.创建虚拟环境,安装pytorch和torchvision
conda create -n openmmlab_XXX python=3.7 -y
conda activate openmmlab_XXX
conda install pytorch==1.6.0 torchvision==0.7.0 cudatoolkit=10.2 -c pytorch
2.安装mmcv
pip install mmcv-full -f https://download.openmmlab.com/mmcv/dist/cu102/torch1.6.0/index.html #安装和自己cuda等版本匹配的
# install mmdetection
git clone https://github.com/open-mmlab/mmdetection.git
cd mmdetection
pip install -r requirements/build.txt
pip install -v -e
3.准备coco数据集(train/val/annotations)
因为github上coco的命名格式,所以我把自己的数据集名称也改成这个。
文章图片
【transformer|利用swin-transformer训练自己的数据集】4.修改对应的配置文件
修改mmdetection/mmdet/core/evaluation下的class_names.py文件修改成你自己的类别标签
文章图片
修改mmdetection/mmdet/datasets下的coco.py文件
文章图片
但当时修改完之后遇到了这个问题The `num_classes` (80) in Shared2FCBBoxHead of MMDataParallel does not match the length of `CLASSES` 20) in RepeatDataset 重新编译代码(运行python setup.py install)且修改了envs下的文件后仍然报错,最后参考一篇博文评论的回答成功解决特此记录,修改了/mmdetection/configs/_base_/models
下的mask_rcnn_r50_fpn.py文件中的num_classes后成功。
还遇到了ValueError: need at least one array to concatenate这个问题,修改了标注json文件中的标签名后解决。
5.训练
OMP_NUM_THREADS=1 python tools/train.py configs/swin/mask_rcnn_swin-t-p4-w7_fpn_fp16_ms-crop-3x_coco.py
注意?? 训练时查看checkpoints保存位置
6.测试
python tools/test.py configs/swin/mask_rcnn_swin-t-p4-w7_fpn_fp16_ms-crop-3x_coco.py work_dirs/mask_rcnn_swin-t-p4-w7_fpn_fp16_ms-crop-3x_coco/latest.pth --show-dir output/
会在文件下生成测试结果
7.绘制训练时的分类和回归损失,并将该图保存为pdf
python tools/analysis_tools/analyze_logs.py plot_curve work_dirs/mask_rcnn_swin-t-p4-w7_fpn_fp16_ms-crop-3x_coco/20220307_121040.log.json --keys loss_cls loss_bbox --out losses.pdf
推荐阅读
- transformer|Swin-Transformer-Semantic-Segmentation训练自己的数据集
- 光谱分析,实现了从光谱原理到光谱分析的过渡
- [开发环境部署]OPenvino下载和安装教程
- pytorch|pytorch 配置opencv_YOLOv4 的各种新实现、配置、测试、训练资源汇总
- 算法|PyTorch中的squeeze()和unsqueeze()详解与应用案例
- #|动手学深度学习(3.14 正向传播、反向传播和计算图)
- 深度学习|深度学习相关概念(计算图与反向传播)
- 计算机视觉|论文笔记(第一人称视角视频中的行人轨迹预测)
- 笔记|BYOL(Bootstrap your own latent A new approach to self-supervised Learning)算法笔记