YOLO-v3 使用自己标注的数据 训练模型
YOLO-v3识别速度快,记录标注自己数据并训练模型的过程
- 下载图像标记工具labelImg,GitHub地址。
- 在Ubuntu18系统上编译labelImg
sudo apt install pyqt5-dev-tools
sudo pip install pyqt5==5.10.1
sudo pip install lxml==4.2.4
make qt5py3
# 测试运行
python3 labelImg.py
- 开始标注图像
图像标记两个常用快捷键w(创建区块)Ctrl+s保存--苦B的鬼差事
- 标记后的每个图像都会生成一个xml文件
- 将xml文件转为txt格式,txt文件放在图像文件同目录下,具体转换可参考yolo-v3 GitHub上scripts/voc_label.py
import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
# sets=[('2012', 'train'), ('2012', 'val'), ('2007', 'train'), ('2007', 'val'), ('2007', 'test')]
# classes = ["aeroplane", "bicycle", "bird", "boat", "bottle", "bus", "car", "cat", "chair", "cow", "diningtable", "dog", "horse", "motorbike", "person", "pottedplant", "sheep", "sofa", "train", "tvmonitor"]
classes = ['text']
def convert(size, box):
dw = 1. / (size[0])
dh = 1. / (size[1])
x = (box[0] + box[1]) / 2.0 - 1
y = (box[2] + box[3]) / 2.0 - 1
w = box[1] - box[0]
h = box[3] - box[2]
x = x * dw
w = w * dw
y = y * dh
h = h * dh
return x, y, w, h
def convert_annotation(infile, outfile):
in_file = open(infile)
out_file = open(outfile, mode='w')
tree = ET.parse(in_file)
root = tree.getroot()
size = root.find('size')
w = int(size.find('width').text)
h = int(size.find('height').text)
for obj in root.iter('object'):
difficult = obj.find('difficult').text
cls = obj.find('name').text
if cls not in classes or int(difficult) == 1:
continue
cls_id = classes.index(cls)
xmlbox = obj.find('bndbox')
b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
float(xmlbox.find('ymax').text))
bb = convert((w, h), b)
out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
in_file.close()
out_file.close()
def deal_xml(usage):
wd = getcwd()
print('The current word dir is {}'.format(wd))
xml_label_dir = '{}_xml'.format(usage)
txt_label_dir = '{}_txt'.format(usage)
xml_dir = os.path.join(wd, 'original', xml_label_dir)
txt_dir = os.path.join(wd, 'original', txt_label_dir)
for root, dirs, files in os.walk(xml_dir):
for file in files:
infile = os.path.join(root, file)
outfile = os.path.join(txt_dir, file.replace('xml', 'txt'))
convert_annotation(infile, outfile)
def get_image_dir(usage):
wd = getcwd()
train_img_dir = usage
train_dir = os.path.join(wd, 'original', train_img_dir)
out_file_name = os.path.join(wd, 'original', '{}_image_path.txt'.format(usage))
print('out file name is {}'.format(out_file_name))
out_file = open(out_file_name, mode='w')
for root, dirs, files in os.walk(train_dir):
for file in files:
out_file.write("%s/%s\n" % (root, file))
out_file.close()
if __name__ == '__main__':
use_name = 'train'
# deal_xml(use_name)
get_image_dir(use_name)
deal_xml()用于将某目录下所有xml文件转换为txt,get_iamge_dir()用于生成所有图像所有位置的txt。
主要2个文件夹train和val存储训练和验证用的图像及txt,两个文件train_iamge_path和val_image_path是图像文件路径文件。
- 将所有文件的路径写到一个txt文件中,此处至少需要2个目录,一个是train用于训练,一个是val用于验证。
- 下载yolo-v3,yolo官网,yolo-v3的GitHub地址。
- 修改makefile,GPU=1使用GPU训练
- make编译,如不成功查找原因(注意编译时cuda版本与gcc版本问题)
- 将每个图像的txt文本放到图像所在文件夹下,图像路径的txt文本放到指定位置。验证集和测试集同样处理。
- 修改cfg/voc.data
classes= 1 #classes为训练样本集的类别总数
train = /dir**/**train.txt #保存训练集所有图像路径的txt文件
valid = /dir**/**val.txt #保存验证集所有图像路径的txt文件
names = data/voc.names #names的路径为data/voc.names文件所在的路径
- 修改data/voc.name,我做文本检测,只用了一个类,这个名与做图像标记时,输入的类名一致。
text
- 修改cfg/yolov3-voc.cfg
[net]
# Testing
# batch=1 #这里的batch跟subdivisions原来不是注释掉的,copy别人的
# subdivisions=1
[convolutional]
size=1
stride=1
pad=1
filters=18 #修改为3*(classes+5)即3*(1+5)=18,以下面classes修改作参考,修改[yolo]标记上面这个filters,修改了3修
[yolo]
classes=1 #修改为标签类别个数,1类,注意找[yolo],修改了3处
- 开始训练
./darknet detector train cfg/voc.data cfg/yolov3-voc.cfg
- 测试识别
./darknet detector test cfg/voc.data cfg/yolov3-voc.cfg backup/yolov3-voc_final.weights test.png