使用FCOS训练自己的数据 FCOS网络是发布于2019年的一种全卷积one-stage目标检测算法。该算法摆脱了anchor的需求,以逐像素的方式进行像素级的分类与回归,并且在准确率上面超越了以往的网络。
一、下载源码并编译
- 源码地址: https://github.com/tianzhi0549/FCOS
- 编译安装。参照项目地址给出的教程安装并测试
pip install torch# install pytorch if you do not have it
pip install git+https://github.com/tianzhi0549/FCOS.git
# run this command line for a demo
fcos https://github.com/tianzhi0549/FCOS/raw/master/demo/images/COCO_val2014_000000000885.jpg
? !这里需要额外指出的是,如果使用了conda环境或者pip安装时指定了其他源比如清华源,其安装的代码未必是最新版本的,这会引发
KeyError: 'Non-existent config key: MODEL.FCOS.NORM_REG_TARGETS'
错误。请严格按照author的指令进行安装。如果有必要,请下载源码进行编译安装以获得最大的灵活性,使用python install setup.py build_ext --inplace
&& python install setup.py build_ext install
。安装前有必要卸载之前版本pip uninstall fcos
。(ps. 笔者下载了最新的代码,为了图快安装了清华源的版本导致训练出现该错误,后发现这个错误emmmm很低级)? !如果使用了该方法仍旧有上述报错,尝试修改相关键值为False或者直接注释。
? -
{FCOS_PATH}/configs/fcos/{CONFIG_YOU_CHOOSE}.yaml
中修改NORM_REG_TARGETS: True
为False
? -
{FCOS_PATH}/fcos_core/config/defaults.py
中修改_C.MODEL.FCOS.NORM_REG_TARGETS = True
为False
二、构建数据集 FCOS项目在MS COCO数据集上进行训练测试,不过程序也给出了pascal VOC数据集的文件格式。如果需要训练自己的数据集,可以将数据文件于相应的数据集进行覆盖,但是不要修改文件名和路径目录。也可以在
{FCOS_PATH}/fcos_core/config/paths_catalog.py
中进行添加。其文件内容如下:#该文件是一个python大字典,存储了不同数据集的根路径、图像和标注路径以及名称。
import osclass DatasetCatalog(object):
DATA_DIR = "/home/kyle/Programs/FCOS/FCOS/datasets"
DATASETS = {
############################################################################
#COCO数据集的格式
"coco_2017_train": {
"img_dir": "coco/train2017",
"ann_file": "coco/annotations/instances_train2017.json"
},
"coco_2017_val": {
"img_dir": "coco/val2017",
"ann_file": "coco/annotations/instances_val2017.json"
},
"coco_2017_test_dev": {
"img_dir": "coco/test2017",
"ann_file": "coco/annotations/image_info_test-dev2017.json"
}
############################################################################
#Pascal VOC的格式
"voc_2007_train": {
"data_dir": "voc/VOC2007",
"split": "train"
},
"voc_2007_val": {
"data_dir": "voc/VOC2007",
"split": "val"
},
"voc_2007_test": {
"data_dir": "voc/VOC2007",
"split": "test"
}
############################################################################
#此外还有coco样式的Pascal VOC的数据集文件
#使用者可以按照上示的格式自行为自己的数据集创建
MS COCO数据集的制作请参考:COCO
PASCAL VOC2007数据集制作请参考:PASCAL VOC2007
? ! PASCAL转MS COCO。有些开发者可能使用过voc数据集进行训练,再使用fcos训练进行对比。这时候如果不想重新制作不同格式的数据集,需要将数据集转化。格式不正确很容易引起KeyError错误,通常是由于空的键值引起,之所以会出现空的键值是因为数据集的标注文件格式错误,比如:转行、空行等。笔者试了很多代码,仅此代码生效:Pascal2COCO(需要将制表转行等配置删除才通过)
...
def save_json(self):
self.data_transfer()
self.data_coco = self.data2coco()
# 保存json文件
json.dump(self.data_coco, open(self.save_json_path, 'w'))# indent=4 更加美观显示
...
三、训练数据集 ? ! 训练数据集的调整方法在作者项目底下的 #54 号issue列出。
@EDG-Zola You do not need to change this code.
In order to train FCOS on your own dataset, you need to,
Add you dataset to
FCOS/fcos_core/config/paths_catalog.py
Line 10 in efb76e4 "coco_2017_train": {
. Please use _coco_style as the suffix of your dataset names.
In https://github.com/tianzhi0549/FCOS/blob/master/configs/fcos/fcos_R_50_FPN_1x.yaml, change DATASETS to your own ones.
Modify MODEL.FCOS.NUM_CLASSES in
FCOS/maskrcnn_benchmark/config/defaults.py
Line 284 in ff8376b _C.MODEL.FCOS.NUM_CLASSES = 81# the number of classes including background
if your dataset has a different number of classes.
? ! 需要额外指出的是,class_num和具体内容的修改不仅仅在作者提到的文件当中,此外还有很多。就笔者发现的:
- demo相关,使用demo功能时修改
- demo相关的predictor.py文件中CATEGORIES大list的数量以及类名需要修改
- demo相关的fcos_demo.py文件中thresholds_for_classes的阈值数量需要根据实际情况修改
- fcos二进制文件相关,使用fcos命令时修改
- fcos文件夹下相关的字典、配置都需要修改
python -m torch.distributed.launch \
--nproc_per_node=8 \
--master_port=$((RANDOM + 10000)) \
tools/train_net.py \
--config-file {YOUR_YAML}.yaml \
DATALOADER.NUM_WORKERS 1 \
SOLVER.IMS_PER_BATCH 1\
TEST.IMS_PER_BATCH 8\
OUTPUT_DIR {YOUR_SAVING_DIR}
--nproc_per_node=8
: 作者使用8 Nvidia V100 GPUs。如果配置不同,在训练的时候指定此参数为训练GPU节点数OUTPUT_DIR
: 模型输出地址DATALOADER.NUM_WORKERS 1
:数据提取进程数SOLVER.IMS_PER_BATCH 1 && TEST.IMS_PER_BATCH 8\
指定训练和测试时使用的batch_size--config-file
: 指定训练配置的yaml文件Yaml文件
制作属于自己训练的yaml文件,只需要修改两个地方:
- 将DATASETS修改为与
{FCOS_PATH}/fcos_core/config/paths_catalog.py
中一致的dataset键名:
DATASETS: TRAIN: ("voc_2007_train_cocostyle", "voc_2007_val_cocostyle") TEST: ("voc_2007_test_cocostyle",)
- 修改训练参数
SOLVER:
BASE_LR: 0.00001#学习速率
WEIGHT_DECAY: 0.00001#权重衰减系数
STEPS: (60000, 80000)
MAX_ITER: 90000#最大迭代次数
IMS_PER_BATCH: 8#batch_size最终以训练命令中的数量为准
WARMUP_METHOD: "constant"
测试网络 该项目的训练过程不像YOLOv3那样清晰可视化,需要测试每个节点保存的模型。测试结果标准严格按照coco数据集的评测标准分为AP、AP50、AP75、APs、APm、APl分别对应mAP,IOU在50、75时的AP以及小中大目标的AP。测试使用到的命令:
python ../tools/test_net.py \
--config-file {YOUR_YAML_PATH} \
MODEL.WEIGHT {YOUR_MODEL_PATH} \
TEST.IMS_PER_BATCH 4
训练结果:
Average Precision(AP) @[ IoU=0.50:0.95 | area=all | maxDets=100 ] = 0.916
Average Precision(AP) @[ IoU=0.50| area=all | maxDets=100 ] = 1.000
Average Precision(AP) @[ IoU=0.75| area=all | maxDets=100 ] = 0.990
Average Precision(AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.916
Average Precision(AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = -1.000
Average Precision(AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = -1.000
Average Recall(AR) @[ IoU=0.50:0.95 | area=all | maxDets=1 ] = 0.942
Average Recall(AR) @[ IoU=0.50:0.95 | area=all | maxDets= 10 ] = 0.942
Average Recall(AR) @[ IoU=0.50:0.95 | area=all | maxDets=100 ] = 0.942
Average Recall(AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.942
Average Recall(AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = -1.000
Average Recall(AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = -1.000
Maximum f-measures for classes:
[0.9965156794425087]
Score thresholds for classes (used in demos for visualization purposes):
[0.5761297345161438]
2020-03-10 11:12:26,546 fcos_core.inference INFO: OrderedDict([('bbox', OrderedDict([('AP', 0.9162189350170181), ('AP50', 0.9999312431243125), ('AP75', 0.9896128697376781), ('APs', 0.9162189350170181), ('APm', -1.0), ('APl', -1.0)]))])
由于笔者的数据集仅有小目标,因此APm和APl值为空。最终迭代75000次达到91%的AP,然而AP50过拟合不知道具体是什么原因。
问题汇总(2020.6.9日更) 过拟合的问题 之前遗留的问题很早之前就已经解决了,发现测试集和验证集完全一致没有区别划分,原因是错误的使用了早先学习时候使用的divide_dataset.py脚本。
原则上数据集的划分不允许有交叉部分。验证集会在训练过程中验证出性能指标,在评估和选择模型的时候给予一定的参考。而测试集用来测试模型的泛化能力,来验证所挑选的模型的性能指标是否如验证集的结果所述。一般来讲,模型都需要训练的稍微过拟合一点,欠拟合是需要继续训练的。微量的过拟合是可以接受的,但是最好表现相差无几。就是train_loss
{fcos}/fcos_core/data/datasets/voc.py
, 在该文件大概31
行指定了图像数据所在的路径和格式: self._imgpath = os.path.join(self.root, {data_path}, {data_format})
修改其中后两个参数可以进行voc数据位置和格式的定制。
一些其他的辅助脚本 Spilt_Dataset 上文中给出的voc2coco脚本默认是将整个文件夹下的标注文件全部划分为一个set。因此这里还需要一个额外的分离数据集的脚本:
import os
import shutil
sets = os.listdir("ImageSets/Main/")
an = os.listdir("Annotations/")
print(an)for set in sets:
print(set)
file = open("ImageSets/Main/"+set,"r")
for line in file:
name = line.strip()+".xml"
print(name)
shutil.copyfile("Annotations/"+name, "split/"+set[:-4]+"/"+name)
它会根据数据集所划分的set将不同的xml文件放入spilt路径下的相应的文件夹,然后再根据这些文件夹来转化coco.json标注。
Max_size 该脚本用来显示图像数据当中的最大尺寸:
import os
import cv2
import numpy as np
X,Y=0,0
img_lists = os.listdir("JPEGImages")
for img in img_lists:
print(img)
read = cv2.imread("JPEGImages/"+img)
read = np.array(read)
x,y,z = read.shape
if x>X:
X = x
if y>X:
Y = y
print("max x,y: ",X,Y)
可以以此为根据修改yaml配置文件当中的图尺寸限制。这边我将图像最大和最小尺寸都修改为和YoloV3同样的416。发现目前使用的gtx1060 6g显卡能够运行的batch_size能够达到16。
监视负载 【炼丹|使用FCOS训练自己的数据】另开一个termin, 使用如下代码可以动态监视gpu的负载:
watch --color -n 1 gpustat -cpu
Every 1.0s: gpustat -cpukyle-X8Ti: Tue Jun9 11:58:17 2020kyle-X8TiTue Jun9 11:58:17 2020435.21
[0] GeForce GTX 1060 | 70'C, 100 % |4789 /6078 MB | kyle:python/16401
(4591M) kyle:Xorg/2244(105M) kyle:gnome-shell/2400(87M) kyle:firefox/2165
4(1M)
另开一个termin, 使用如下代码可以动态监视cpu和内存的负载:
htop
文章图片
自定义数据集以及名称(2020.8.14日更) 制作相应的voc/coco数据集 在data目录下,放置数据集
- VOC数据集要包含必要的ImageSet、images/JPEGImage以及Annotations文件夹以及相关文件。
- COCO数据集要包含对应的.json文件。图像的存储位置必须和.json文件当中要保持一致。
这里补充一个通过VOC imageSet 的数据集分割的train、test、val的test文件来生成coco数据集的代码:
import os
import json
import xml.etree.ElementTree as ET
import numpy as np
import cv2
def _isArrayLike(obj):
return hasattr(obj, '__iter__') and hasattr(obj, '__len__')
class voc2coco:
def __init__(self, devkit_path=None, year=None):
self.classes = ('__background__',
'nova')
self.num_classes = len(self.classes)
#assert 'data716' in devkit_path, 'VOC地址不存在: {}'.format(devkit_path)
self.data_path = os.path.join(devkit_path, 'VOC' + year)
self.annotaions_path = os.path.join(self.data_path, 'Annotations')
self.image_set_path = os.path.join(self.data_path, 'ImageSets')
self.year = 2019
self.categories_to_ids_map = self._get_categories_to_ids_map()
self.categories_msg = self._categories_msg_generator()
def _load_annotation(self, ids=[]):
ids = ids if _isArrayLike(ids) else [ids]
image_msg = []
annotation_msg = []
annotation_id = 1
for index in ids:
filename = '{:0>4}'.format(index)
json_file = os.path.join(self.data_path, 'Segmentation_json', filename + '.json')
if os.path.exists(json_file):
img_file = os.path.join(self.data_path, 'JPEGImages', filename + '.jpg')
im = cv2.imread(img_file)
width = im.shape[1]
height = im.shape[0]
seg_data = https://www.it610.com/article/json.load(open(json_file,'r'))
assert type(seg_data) == type(dict()), 'annotation file format {} not supported'.format(type(seg_data))
for shape in seg_data['shapes']:
seg_msg = []
for point in shape['points']:
seg_msg += point
one_ann_msg = {"segmentation": [seg_msg],
"area": self._area_computer(shape['points']),
"iscrowd": 0,
"image_id": int(index),
"bbox": self._points_to_mbr(shape['points']),
"category_id": self.categories_to_ids_map[shape['label']],
"id": annotation_id,
"ignore": 0
}
annotation_msg.append(one_ann_msg)
annotation_id += 1
else:
xml_file = os.path.join(self.annotaions_path, filename + '.xml')
tree = ET.parse(xml_file)
size = tree.find('size')
objs = tree.findall('object')
width = size.find('width').text
height = size.find('height').text
for obj in objs:
bndbox = obj.find('bndbox')
[xmin, xmax, ymin, ymax] \
= [int(bndbox.find('xmin').text) - 1, int(bndbox.find('xmax').text),
int(bndbox.find('ymin').text) - 1, int(bndbox.find('ymax').text)]
if xmin < 0:
xmin = 0
if ymin < 0:
ymin = 0
bbox = [xmin, xmax, ymin, ymax]
one_ann_msg = {"segmentation": self._bbox_to_mask(bbox),
"area": self._bbox_area_computer(bbox),
"iscrowd": 0,
"image_id": int(index),
"bbox": [xmin, ymin, xmax - xmin, ymax - ymin],
"category_id": self.categories_to_ids_map[obj.find('name').text],
"id": annotation_id,
"ignore": 0
}
annotation_msg.append(one_ann_msg)
annotation_id += 1
one_image_msg = {"file_name": filename + ".jpg",
"height": int(height),
"width": int(width),
"id": int(index)
}
image_msg.append(one_image_msg)
return image_msg, annotation_msg
def _bbox_to_mask(self, bbox):
assert len(bbox) == 4, 'Wrong bndbox!'
mask = [bbox[0], bbox[2], bbox[0], bbox[3], bbox[1], bbox[3], bbox[1], bbox[2]]
return [mask]
def _bbox_area_computer(self, bbox):
width = bbox[1] - bbox[0]
height = bbox[3] - bbox[2]
return width * height
def _save_json_file(self, filename=None, data=https://www.it610.com/article/None):
json_path = os.path.join(self.data_path,'cocoformatJson')
assert filename is not None, 'lack filename'
if os.path.exists(json_path) == False:
os.mkdir(json_path)
if not filename.endswith('.json'):
filename += '.json'
assert type(data) == type(dict()), 'data format {} not supported'.format(type(data))
with open(os.path.join(json_path, filename), 'w') as f:
f.write(json.dumps(data))
def _get_categories_to_ids_map(self):
return dict(zip(self.classes, range(self.num_classes)))
def _get_all_indexs(self):
ids = []
for root, dirs, files in os.walk(self.annotaions_path, topdown=False):
for f in files:
if str(f).endswith('.xml'):
id = int(str(f).strip('.xml'))
ids.append(id)
assert ids is not None, 'There is none xml file in {}'.format(self.annotaions_path)
return ids
def _get_indexs_by_image_set(self, image_set=None):
if image_set is None:
return self._get_all_indexs()
else:
image_set_path = os.path.join(self.image_set_path, 'Main', image_set + '.txt')
assert os.path.exists(image_set_path), 'Path does not exist: {}'.format(image_set_path)
with open(image_set_path) as f:
ids = [x.strip() for x in f.readlines()]
return ids
def _points_to_mbr(self, points):
assert _isArrayLike(points), 'Points should be array like!'
x = [point[0] for point in points]
y = [point[1] for point in points]
assert len(x) == len(y), 'Wrong point quantity'
xmin, xmax, ymin, ymax = min(x), max(x), min(y), max(y)
height = ymax - ymin
width = xmax - xmin
return [xmin, ymin, width, height]
def _categories_msg_generator(self):
categories_msg = []
for category in self.classes:
if category == '__background__':
continue
one_categories_msg = {"supercategory": "none",
"id": self.categories_to_ids_map[category],
"name": category
}
categories_msg.append(one_categories_msg)
return categories_msg
def _area_computer(self, points):
assert _isArrayLike(points), 'Points should be array like!'
tmp_contour = []
for point in points:
tmp_contour.append([point])
contour = np.array(tmp_contour, dtype=np.int32)
area = cv2.contourArea(contour)
return area
def voc_to_coco_converter(self):
img_sets = ['train', 'test', 'val']
for img_set in img_sets:
ids = self._get_indexs_by_image_set(img_set)
img_msg, ann_msg = self._load_annotation(ids)
result_json = {"images": img_msg,
"type": "instances",
"annotations": ann_msg,
"categories": self.categories_msg}
self._save_json_file('voc_' + str(self.year) + '_' + img_set, result_json)
def demo():
# 转换pascal地址是'./VOC2007/VOCdevkit/VOC2007/ImageSets/Main/trainval.txt'
converter = voc2coco('/home/kyle/Programs/FCOS/FCOS/datasets/voc_cocostyle/', '2007/')
converter.voc_to_coco_converter()
if __name__ == "__main__":
demo()
定义 这一部分之前简单的讲过,现在详细的描述一下这个过程。放置好数据集以后,需要在maskrcnn benchwork的fcos核心代码当中添加数据库,以便在训练yaml配置文件当中使用。相当于给数据库起了别名。首先打开{FCOS_PATH}/fcos_core/paths_catalog.py:
#所有COCO和VOC数据集的名称开头都必须是coco_或者是voc_。
#COCO数据集格式
"coco_{dataset-name}_train": {
"img_dir": "{Path_to_your_images}",
"ann_file": "{Path_to_your_json_file}.json"
},"coco_{dataset-name}_val": {
"img_dir": "{Path_to_your_images}",
"ann_file": "{Path_to_your_json_file}.json"
},"coco_{dataset-name}_test": {
"img_dir": "{Path_to_your_images}",
"ann_file": "{Path_to_your_json_file}.json"
},
#####################################################
#VOC数据集格式
"voc_{dataset-name}_train": {
"data_dir": "{your_voc_path}/VOC2012",
"split": "train"
},
"voc_{dataset-name}_val": {
"data_dir": "{your_voc_path}/VOC2012",
"split": "val"
},
"voc_{dataset-name}_test": {
"data_dir": "{your_voc_path}/VOC2012",
"split": "test"
},
可以定义自己的非主流数据集名字。但是一定要注意会解析数据集前缀来判断数据集的类型,所以第一前缀不能丢失,其次不能混淆。
因为VOC数据集的评估方式略微粗糙,仅有mAP等,如果想获得COCO数据集的详细评估结果,一方面是将数据集通过文章中给出的脚本转化为COCO数据集。还有一种方式就是使用带
_cocostyle
后缀的数据集别名。结束之后,卸载之前安装的fcos并重新编译安装。这样fcos_core的代码才会生效。
pip3 uninstall fcos -y
python3 setup.py build_ext --inplace
python3 setup.py build_ext install
只有这样,才能够在yaml文件当中反问到刚才添加的数据集:
...
DATASETS:
TRAIN: ("coco_{dataset-name}_train", "coco_{dataset-name}_val")
TEST: ("coco_{dataset-name}_test",)
...
推荐阅读
- AI|论文研读(三)(FCOS: Fully Convolutional One-Stage Object Detection之补充)
- 用 Python 做“贪吃蛇”,在线吃不饱
- 程序员|手把手教你使用 Python 制作贪吃蛇游戏
- c++|Python 什么时候会被取代()
- 编程语言|Canvas渲染会取代DOM吗()
- 十套技巧提升你的Python编程水平
- 老猿Python|Python+Pycharm和 VisualStudio C++社区版使用PK及易混淆的语法问题
- transformers|【深度学习】(ICCV-2021)PVT-金字塔 Vision Transformer及PVT_V2
- 无人车|CCF智能无人车比赛(国内绿洲科学实验云平台)心路历程+AWS Deepracer智能无人车比赛经验(附优秀代码re:lnvent 2018赛道)