【目标检测】手把手教你如何使用MMDetection训练自己的数据集
参考 : MMDetection全流程实战指南:手把手带你构建目标检测模型2. 安装GPU版本的PyTorch这里如果安装失败了需要去官网 pytorch官网 找对应的版本下载;先输入nvidia-smi命令查看可下载的cuda的最高版本我的可下载的最高CUDA版本为12.0,因此我选择11.8的这个下载命令进行下载下载后进行检验是否安装成功可以看到输出为true,安装成功。使用 OpenMMLa
参考 : MMDetection全流程实战指南:手把手带你构建目标检测模型
一、配置环境
1. 创建一个名为mmdetection的虚拟环境
conda create -n mmdetection python=3.9 -y
conda activate mmdetection
2. 安装GPU版本的PyTorch
# GPU版本
conda install pytorch torchvision -c pytorch
这里如果安装失败了需要去官网 pytorch官网 找对应的版本下载;
先输入nvidia-smi命令查看可下载的cuda的最高版本
我的可下载的最高CUDA版本为12.0,因此我选择11.8的这个下载命令进行下载
下载后进行检验是否安装成功
import torch
torch.cuda.is_available()
exit()
可以看到输出为true,安装成功。
3. 安装mmdetection所需的包
使用 OpenMMLab 推出的 MIM 来安装 MMEngine 和 MMCV 两个必要的库。
pip install -U openmim
mim install mmengine
mim install "mmcv>=2.0.0"
至此,需要下载的包就都全部完成了,可以使用conda list命令来查看一下是否都安装成功了。
二、下载源码并安装配置文件
1. 下载 GitHub 上的mmdetection源码到本地
cd /path #(进入到你自己下载mmdetection代码的位置)
# 在Github上git代码
git clone https://github.com/open-mmlab/mmdetection.git
如果git失败就直接下载源码即可
2. 安装源码中的配置文件
# 进入mmdetection对应的文件夹
cd mmdetection
# 安装配置文件
pip install -v -e .
3. 配置成功
三、测试是否成功安装
1. 下载配置文件和模型权重文件。
mim download mmdet --config rtmdet_tiny_8xb32-300e_coco --dest .
下载结束后可以在当前文件夹中发现两个文件
- rtmdet_tiny_8xb32-300e_coco.py
- rtmdet_tiny_8xb32-300e_coco_20220902_112414-78e30dcc.pth。
2. 推理验证
python demo/image_demo.py demo/demo.jpg rtmdet_tiny_8xb32-300e_coco.py --weights rtmdet_tiny_8xb32-300e_coco_20220902_112414-78e30dcc.pth --device cuda
在输入命令后我遇到了 “AssertionError: MMCV==2.2.0 is used but incompatible. Please install mmcv>=2.0.0rc4, <2.2.0” 的问题
- 解决方法:注释掉/mmdetection-main/mmdet/init.py文件中的相关断言
# assert (mmcv_version >= digit_version(mmcv_minimum_version)
# and mmcv_version < digit_version(mmcv_maximum_version)), \
# f'MMCV=={mmcv.__version__} is used but incompatible. ' \
# f'Please install mmcv>={mmcv_minimum_version}, <{mmcv_maximum_version}.'
再次运行后成功
结果可在outputs文件夹中查看;
至此mmdetection的安装和配置完成,下面将进行自定义数据集的配置。
四、数据集准备
1. 准备好coco格式的数据集
coco格式数据集如下所示:
在mmdetection文件夹下新建一个data数据集,再新建一个子文件夹名为coco,然后存放自己的数据集;
2. 创建新的数据集类
进入 mmdet/datasets 这个文件夹里,并创建一个自己命名数据集的 Python 文件,我的叫做plantdoc.py
由于是 coco 格式的数据集,因此可以直接复制名为 coco.py 文件的内容到 plantdoc.py 文件,然后修改里面对应的内容。
我们需要把coco.py中的类名、数据集中的类别和标注的颜色换成自己的数据集的类名
-
下图为coco.py中的内容
-
下图为我自己的plantdoc.py类
3. 录入数据集
在mmdet/datasets/init.py中仿照coco的格式把我们自己的数据集进行录入。
- import 的内容就是我们自定义的 dataset 名字
- 最后在下面也要加上对应 Dataset 的名称。
五、模型准备
1. 模型选择
在config文件夹中选择想要使用的目标检测模型,我这里选择的是deformable_detr
配置文件中设置的epoch=50,batch=32,我这里根据我自己的设备修改为了epoch=36,batch=8
2. 配置文件准备及修改
由于在 MMDetection 里大多用的都是 COCO 格式的数据集,因此在这里直接修改 work_dir 文件夹里对应的配置文件会比起重新创建更加的方便。
2.1 生成配置文件
首先运行deformable-detr的训练命令
python tools/train.py configs/deformable_detr/deformable-detr_r50_16xb2-50e_coco.py
可以看到mmdetection文件夹中生成了一个work_dirs子文件夹,deformable-detr_r50_16xb2-50e_coco.py中就是完整的配置文件;
2.2 修改配置文件
把配置文件修改成和我们自己的数据集适配
- 修改数据集类别数:从80改为27(自己的数据集类别个数)
- 修改dataset_type:从CocoDataset改为PlantdocDataset(自己的数据集名称)
- 修改batchsize:需要多大的batchsize就把train_dataloader中的batch_size修改为多大
- 修改学习率:比如数据集很少的话,可以把学习率调得比较小,从而让其能够慢慢的学习到图像的特征。
2.3 注册数据集的metainfo
在配置文件中创建一个 metainfo,将自己的 classes(标签类别)和 palette(调色板)写入,并且在 train_dataloader、val_dataloader 和 test_dataloader 里写入;
- 我的数据集的metainfo:
metainfo = dict(
classes=(
'Tomato Septoria leaf spot',
'Bell_pepper leaf',
'Corn rust leaf',
'Potato leaf late blight',
'Corn leaf blight',
'Strawberry leaf',
'Tomato leaf late blight',
'Blueberry leaf',
'Soyabean leaf',
'Tomato mold leaf',
'Squash Powdery mildew leaf',
'Raspberry leaf',
'Tomato leaf bacterial spot',
'Apple rust leaf',
'Peach leaf',
'Potato leaf early blight',
'Tomato Early blight leaf',
'Apple Scab Leaf',
'Grape leaf',
'Tomato leaf',
'Grape leaf black rot',
'Apple leaf',
'Corn Gray leaf spot',
'Bell_pepper leaf spot',
'Cherry leaf',
'Tomato leaf mosaic virus',
'Tomato leaf yellow virus',
),
palette=[
(
220,
20,
60,
),
(
119,
11,
32,
),
(
0,
0,
142,
),
(
0,
0,
230,
),
(
106,
0,
228,
),
(
0,
60,
100,
),
(
0,
80,
100,
),
(
0,
0,
70,
),
(
0,
0,
192,
),
(
250,
170,
30,
),
(
100,
170,
30,
),
(
220,
220,
0,
),
(
175,
116,
175,
),
(
250,
0,
30,
),
(
165,
42,
42,
),
(
255,
77,
255,
),
(
0,
226,
252,
),
(
182,
182,
255,
),
(
0,
82,
0,
),
(
120,
166,
157,
),
(
110,
76,
0,
),
(
174,
57,
255,
),
(
199,
100,
0,
),
(
72,
0,
118,
),
(
255,
179,
240,
),
(
0,
125,
92,
),
(
209,
0,
151,
),
])
在train_dataloader、test_dataloader、val_dataloader中都写入;
2.4 预训练权重的使用
在官网找到想要使用的对应权重文件,点击model进行下载;
把pth文件下载到mmdetection文件夹中;
找到配置文件中的load from,然后把该权重文件的路径输入进去;
3. 模型训练
此时我们运行work_dirs目录下的配置文件,然后就可以开始训练啦
python tools/train.py work_dirs/deformable-detr_r50_16xb2-50e_coco.py
可以查看每个epoch的loss、剩余时间等等
4. 模型结果
当训练完成后,训练好的结果就能够在 work_dir 里查看到,里面有模型的配置文件,权重文件以及训练过程中的记录。
可以看到我的训练结果如下所示:
六、验证和推理
1. 损失函数曲线的绘制
MMDetection 提供了对这些 log 文件进行图像绘制的工具,我们可以打印看看这里面 Loss 的变化情况如何。脚本的位置为tools/analysis_tools/analyze_logs.py,具体调用的命令如下:
python tools/analysis_tools/analyze_logs.py plot_curve work_dirs/deformable-detr_r50_16xb2-50e_coco/20240904_083802/vis_data/20240904_083802.json --keys loss --out results.png --legend loss
- python tools/analysis_tools/analyze_logs.py plot_curve:运行 analyze_logs.py 脚本,并告诉它执行 plot_curve 任务,这是一个子命令。
- work_dirs/deformable-detr_r50_16xb2-50e_coco/20240904_083802/vis_data/20240904_083802.json:这是输入的 JSON 格式的日志文件路径,其中记录了训练过程中的数据。
- keys loss:指定了要绘制的关键指标,这里是损失(loss)。
- out results.png:指定输出图像的文件名。
- legend loss:为绘制的曲线指定图例。
loss曲线图会以result.jpg格式保存,如下所示:
更多推荐
所有评论(0)