目标检测模块使用教程¶
一、概述¶
目标检测模块是计算机视觉系统中的关键组成部分,负责在图像或视频中定位和标记出包含特定目标的区域。该模块的性能直接影响到整个计算机视觉系统的准确性和效率。目标检测模块通常会输出目标区域的边界框(Bounding Boxes),这些边界框将作为输入传递给目标识别模块进行后续处理。
二、支持模型列表¶
模型 | 模型下载链接 | mAP(%) | GPU推理耗时(ms) [常规模式 / 高性能模式] |
CPU推理耗时(ms) [常规模式 / 高性能模式] |
模型存储大小 (M) | 介绍 |
---|---|---|---|---|---|---|
PicoDet-L | 推理模型/训练模型 | 42.6 | 14.68 / 5.81 | 47.32 / 47.32 | 20.9 M | PP-PicoDet是一种全尺寸、棱视宽目标的轻量级目标检测算法,它考虑移动端设备运算量。与传统目标检测算法相比,PP-PicoDet具有更小的模型尺寸和更低的计算复杂度,并在保证检测精度的同时更高的速度和更低的延迟。 |
PicoDet-S | 推理模型/训练模型 | 29.1 | 7.98 / 2.33 | 14.82 / 5.60 | 4.4 M | |
PP-YOLOE_plus-L | 推理模型/训练模型 | 52.9 | 33.55 / 10.46 | 189.05 / 189.05 | 185.3 M | PP-YOLOE_plus 是一种是百度飞桨视觉团队自研的云边一体高精度模型PP-YOLOE迭代优化升级的版本,通过使用Objects365大规模数据集、优化预处理,大幅提升了模型端到端推理速度。 |
PP-YOLOE_plus-S | 推理模型/训练模型 | 43.7 | 12.16 / 4.58 | 73.86 / 52.90 | 28.3 M | |
RT-DETR-H | 推理模型/训练模型 | 56.3 | 115.92 / 28.16 | 971.32 / 971.32 | 435.8 M | RT-DETR是第一个实时端到端目标检测器。该模型设计了一个高效的混合编码器,满足模型效果与吞吐率的双需求,高效处理多尺度特征,并提出了加速和优化的查询选择机制,以优化解码器查询的动态化。RT-DETR支持通过使用不同的解码器来实现灵活端到端推理速度。 |
RT-DETR-L | 推理模型/训练模型 | 53.0 | 35.00 / 10.45 | 495.51 / 495.51 | 113.7 M |
❗ 以上列出的是目标检测模块重点支持的6个核心模型,该模块总共支持37个模型,完整的模型列表如下:
👉模型列表详情
模型 | 模型下载链接 | mAP(%) | GPU推理耗时(ms) [常规模式 / 高性能模式] |
CPU推理耗时(ms) [常规模式 / 高性能模式] |
模型存储大小 (M) | 介绍 |
---|---|---|---|---|---|---|
Cascade-FasterRCNN-ResNet50-FPN | 推理模型/训练模型 | 41.1 | 135.92 / 135.92 | - | 245.4 M | Cascade-FasterRCNN 是一种改进的Faster R-CNN目标检测模型,通过耦联多个检测器,利用不同IoU阈值优化检测结果,解决训练和预测阶段的mismatch问题,提高目标检测的准确性。 |
Cascade-FasterRCNN-ResNet50-vd-SSLDv2-FPN | 推理模型/训练模型 | 45.0 | 138.23 / 138.23 | - | 246.2 M | |
CenterNet-DLA-34 | 推理模型/训练模型 | 37.6 | - | - | 75.4 M | CenterNet是一种anchor-free目标检测模型,把待检测物体的关键点视为单一点-即其边界框的中心点,并通过关键点进行回归。 |
CenterNet-ResNet50 | 推理模型/训练模型 | 38.9 | - | - | 319.7 M | |
DETR-R50 | 推理模型/训练模型 | 42.3 | 62.91 / 17.33 | 392.63 / 392.63 | 159.3 M | DETR 是Facebook提出的一种transformer目标检测模型,该模型在不需要预定义的先验框anchor和NMS的后处理策略的情况下,就可以实现端到端的目标检测。 |
FasterRCNN-ResNet34-FPN | 推理模型/训练模型 | 37.8 | 83.33 / 31.64 | - | 137.5 M | Faster R-CNN是典型的two-stage目标检测模型,即先生成区域建议(Region Proposal),然后在生成的Region Proposal上做分类和回归。相较于前代R-CNN和Fast R-CNN,Faster R-CNN的改进主要在于区域建议方面,使用区域建议网络(Region Proposal Network, RPN)提供区域建议,以取代传统选择性搜索。RPN是卷积神经网络,并与检测网络共享图像的卷积特征,减少了区域建议的计算开销。 |
FasterRCNN-ResNet50-FPN | 推理模型/训练模型 | 38.4 | 107.08 / 35.40 | - | 148.1 M | |
FasterRCNN-ResNet50-vd-FPN | 推理模型/训练模型 | 39.5 | 109.36 / 36.00 | - | 148.1 M | |
FasterRCNN-ResNet50-vd-SSLDv2-FPN | 推理模型/训练模型 | 41.4 | 109.06 / 36.19 | - | 148.1 M | |
FasterRCNN-ResNet50 | 推理模型/训练模型 | 36.7 | 496.33 / 109.12 | - | 120.2 M | |
FasterRCNN-ResNet101-FPN | 推理模型/训练模型 | 41.4 | 148.21 / 42.21 | - | 216.3 M | |
FasterRCNN-ResNet101 | 推理模型/训练模型 | 39.0 | 538.58 / 120.88 | - | 188.1 M | |
FasterRCNN-ResNeXt101-vd-FPN | 推理模型/训练模型 | 43.4 | 258.01 / 58.25 | - | 360.6 M | |
FasterRCNN-Swin-Tiny-FPN | 推理模型/训练模型 | 42.6 | - | - | 159.8 M | |
FCOS-ResNet50 | 推理模型/训练模型 | 39.6 | 106.13 / 28.32 | 721.79 / 721.79 | 124.2 M | FCOS是一种密集预测的anchor-free目标检测模型,使用RetinaNet的骨架,直接在feature map上回归目标物体的长宽,并预测物体的类别以及centerness(feature map上像素点离物体中心的偏移程度),centerness最终会作为权重来调整物体得分。 |
PicoDet-L | 推理模型/训练模型 | 42.6 | 14.68 / 5.81 | 47.32 / 47.32 | 20.9 M | PP-PicoDet是一种全尺寸、棱视宽目标的轻量级目标检测算法,它考虑移动端设备运算量。与传统目标检测算法相比,PP-PicoDet具有更小的模型尺寸和更低的计算复杂度,并在保证检测精度的同时更高的速度和更低的延迟。 |
PicoDet-M | 推理模型/训练模型 | 37.5 | 9.62 / 3.23 | 23.75 / 14.88 | 16.8 M | |
PicoDet-S | 推理模型/训练模型 | 29.1 | 7.98 / 2.33 | 14.82 / 5.60 | 4.4 M | |
PicoDet-XS | 推理模型/训练模型 | 26.2 | 9.66 / 2.75 | 19.15 / 7.24 | 5.7 M | |
PP-YOLOE_plus-L | 推理模型/训练模型 | 52.9 | 33.55 / 10.46 | 189.05 / 189.05 | 185.3 M | PP-YOLOE_plus 是一种是百度飞桨视觉团队自研的云边一体高精度模型PP-YOLOE迭代优化升级的版本,通过使用Objects365大规模数据集、优化预处理,大幅提升了模型端到端推理速度。 |
PP-YOLOE_plus-M | 推理模型/训练模型 | 49.8 | 19.52 / 7.46 | 113.36 / 113.36 | 82.3 M | |
PP-YOLOE_plus-S | 推理模型/训练模型 | 43.7 | 12.16 / 4.58 | 73.86 / 52.90 | 28.3 M | |
PP-YOLOE_plus-X | 推理模型/训练模型 | 54.7 | 58.87 / 15.84 | 292.93 / 292.93 | 349.4 M | |
RT-DETR-H | 推理模型/训练模型 | 56.3 | 115.92 / 28.16 | 971.32 / 971.32 | 435.8 M | RT-DETR是第一个实时端到端目标检测器。该模型设计了一个高效的混合编码器,满足模型效果与吞吐率的双需求,高效处理多尺度特征,并提出了加速和优化的查询选择机制,以优化解码器查询的动态化。RT-DETR支持通过使用不同的解码器来实现灵活端到端推理速度。 |
RT-DETR-L | 推理模型/训练模型 | 53.0 | 35.00 / 10.45 | 495.51 / 495.51 | 113.7 M | |
RT-DETR-R18 | 推理模型/训练模型 | 46.5 | 20.21 / 6.23 | 266.01 / 266.01 | 70.7 M | |
RT-DETR-R50 | 推理模型/训练模型 | 53.1 | 42.14 / 11.31 | 523.97 / 523.97 | 149.1 M | |
RT-DETR-X | 推理模型/训练模型 | 54.8 | 61.24 / 15.83 | 647.08 / 647.08 | 232.9 M | |
YOLOv3-DarkNet53 | 推理模型/训练模型 | 39.1 | 41.58 / 10.10 | 158.78 / 158.78 | 219.7 M | YOLOv3是一种实时的端到端目标检测器。它使用一个独特的单个卷积神经网络,将目标检测问题分解为一个回归问题,从而实现实时的检测。该模型采用了多个尺度的检测,提高了不同尺度目标物体的检测性能。 |
YOLOv3-MobileNetV3 | 推理模型/训练模型 | 31.4 | 16.53 / 5.70 | 60.44 / 60.44 | 83.8 M | |
YOLOv3-ResNet50_vd_DCN | 推理模型/训练模型 | 40.6 | 32.91 / 10.07 | 225.72 / 224.32 | 163.0 M | |
YOLOX-L | 推理模型/训练模型 | 50.1 | 121.19 / 13.55 | 295.38 / 274.15 | 192.5 M | YOLOX模型以YOLOv3作为目标检测网络的框架,通过设计Decoupled Head、Data Aug、Anchor Free以及SimOTA组件,显著提升了模型在各种复杂场景下的检测性能。 |
YOLOX-M | 推理模型/训练模型 | 46.9 | 87.19 / 10.09 | 183.95 / 172.67 | 90.0 M | |
YOLOX-N | 推理模型/训练模型 | 26.1 | 53.31 / 45.02 | 69.69 / 59.18 | 3.4 M | |
YOLOX-S | 推理模型/训练模型 | 40.4 | 129.52 / 13.19 | 181.39 / 179.01 | 32.0 M | |
YOLOX-T | 推理模型/训练模型 | 32.9 | 66.81 / 61.31 | 92.30 / 83.90 | 18.1 M | |
YOLOX-X | 推理模型/训练模型 | 51.8 | 156.40 / 20.17 | 480.14 / 454.35 | 351.5 M | |
Co-Deformable-DETR-R50 | 推理模型/训练模型 | 49.7 | 184 M | Co-DETR是一种先进的端到端目标检测器。它基于DETR架构,通过引入协同混合分配训练策略,将目标检测任务中的传统一对多标签分配与一对一匹配相结合,从而显著提高了检测性能和训练效率 | ||
Co-Deformable-DETR-Swin-T | 推理模型/训练模型 | 48.0 | 187 M |
三、快速集成¶
❗ 在快速集成前,请先安装 PaddleX 的 wheel 包,详细请参考 PaddleX本地安装教程
完成 wheel 包的安装后,几行代码即可完成目标检测模块的推理,可以任意切换该模块下的模型,您也可以将目标检测的模块中的模型推理集成到您的项目中。运行以下代码前,请您下载示例图片到本地。
from paddlex import create_model
model = create_model(model_name="PicoDet-S")
output = model.predict(
"general_object_detection_002.png",
batch_size=1,
threshold=0.5
)
for res in output:
res.print(json_format=False)
res.save_to_img("./output/")
res.save_to_json("./output/")
运行后,得到的结果为:
{'res': {'input_path': 'general_object_detection_002.png', 'page_index': None, 'boxes': [{'cls_id': 49, 'label': 'orange', 'score': 0.8188614249229431, 'coordinate': [661.3518, 93.05823, 870.75903, 305.93713]}, {'cls_id': 47, 'label': 'apple', 'score': 0.7745078206062317, 'coordinate': [76.80911, 274.74905, 330.5422, 520.0428]}, {'cls_id': 47, 'label': 'apple', 'score': 0.7271787524223328, 'coordinate': [285.32645, 94.3175, 469.73645, 297.40344]}, {'cls_id': 46, 'label': 'banana', 'score': 0.5576589703559875, 'coordinate': [310.8041, 361.43625, 685.1869, 712.59155]}, {'cls_id': 47, 'label': 'apple', 'score': 0.5490103363990784, 'coordinate': [764.6252, 285.76096, 924.8153, 440.92892]}, {'cls_id': 47, 'label': 'apple', 'score': 0.515821635723114, 'coordinate': [853.9831, 169.41423, 987.803, 303.58615]}, {'cls_id': 60, 'label': 'dining table', 'score': 0.514293372631073, 'coordinate': [0.53089714, 0.32445717, 1072.9534, 720]}, {'cls_id': 47, 'label': 'apple', 'score': 0.510750949382782, 'coordinate': [57.368027, 23.455347, 213.39601, 176.45612]}]}}
参数含义如下:
- input_path
:表示输入图像的路径
- page_index
:如果输入是PDF文件,则表示当前是PDF的第几页,否则为 None
- boxes
:预测的目标框信息,一个字典列表。每个字典代表一个检出的目标,包含以下信息:
- cls_id
:类别ID,一个整数
- label
:类别标签,一个字符串
- score
:目标框置信度,一个浮点数
- coordinate
:目标框坐标,一个浮点数列表,格式为[xmin, ymin, xmax, ymax]
可视化图像如下:
相关方法、参数等说明如下:
create_model
实例化目标检测模型(此处以PicoDet-S
为例),具体说明如下:
参数 | 参数说明 | 参数类型 | 可选项 | 默认值 |
---|---|---|---|---|
model_name |
模型名称 | str |
无 | 无 |
model_dir |
模型存储路径 | str |
无 | 无 |
img_size |
输入图像大小;如果不指定,将默认使用PaddleX官方模型配置 | int/list/None |
|
None |
threshold |
用于过滤掉低置信度预测结果的阈值;如果不指定,将默认使用PaddleX官方模型配置 | float/dict/None |
|
None |
use_hpip |
是否启用高性能推理 | bool |
无 | False |
-
其中,
model_name
必须指定,指定model_name
后,默认使用 PaddleX 内置的模型参数,在此基础上,指定model_dir
时,使用用户自定义的模型。 -
调用目标检测模型的
predict()
方法进行推理预测,predict()
方法参数有input
、batch_size
和threshold
,具体说明如下:
参数 | 参数说明 | 参数类型 | 可选项 | 默认值 |
---|---|---|---|---|
input |
待预测数据,支持多种输入类型,必填 | Python Var|str|list |
|
无 |
batch_size |
批大小 | int |
任意整数 | 1 |
threshold |
用于过滤掉低置信度预测结果的阈值;如果不指定,将默认使用 creat_model 指定的 threshold 参数,如果 creat_model 也没有指定,则默认使用PaddleX官方模型配置 |
float/dict/None |
|
None |
- 对预测结果进行处理,每个样本的预测结果均为对应的Result对象,且支持打印、保存为图片、保存为
json
文件的操作:
方法 | 方法说明 | 参数 | 参数类型 | 参数说明 | 默认值 |
---|---|---|---|---|---|
print() |
打印结果到终端 | format_json |
bool |
是否对输出内容进行使用 JSON 缩进格式化 |
True |
indent |
int |
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 |
4 | ||
ensure_ascii |
bool |
控制是否将非 ASCII 字符转义为 Unicode 。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json 为True 时有效 |
False |
||
save_to_json() |
将结果保存为json格式的文件 | save_path |
str |
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 | 无 |
indent |
int |
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 |
4 | ||
ensure_ascii |
bool |
控制是否将非 ASCII 字符转义为 Unicode 。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json 为True 时有效 |
False |
||
save_to_img() |
将结果保存为图像格式的文件 | save_path |
str |
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 | 无 |
- 此外,也支持通过属性获取带结果的可视化图像和预测结果,具体如下:
属性 | 属性说明 |
---|---|
json |
获取预测的json 格式的结果 |
img |
获取格式为dict 的可视化图像 |
关于更多 PaddleX 的单模型推理的 API 的使用方法,可以参考PaddleX单模型Python脚本使用说明。
四、二次开发¶
如果你追求更高精度的现有模型,可以使用 PaddleX 的二次开发能力,开发更好的目标检测模型。在使用 PaddleX 开发目标检测模型之前,请务必安装 PaddleX的目标检测相关模型训练插件,安装过程可以参考 PaddleX本地安装教程
4.1 数据准备¶
在进行模型训练前,需要准备相应任务模块的数据集。PaddleX 针对每一个模块提供了数据校验功能,只有通过数据校验的数据才可以进行模型训练。此外,PaddleX 为每一个模块都提供了 Demo 数据集,您可以基于官方提供的 Demo 数据完成后续的开发。若您希望用私有数据集进行后续的模型训练,可以参考PaddleX目标检测任务模块数据标注教程。
4.1.1 Demo 数据下载¶
您可以参考下面的命令将 Demo 数据集下载到指定文件夹:
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/det_coco_examples.tar -P ./dataset
tar -xf ./dataset/det_coco_examples.tar -C ./dataset/
4.1.2 数据校验¶
一行命令即可完成数据校验:
python main.py -c paddlex/configs/modules/object_detection/PicoDet-S.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/det_coco_examples
Check dataset passed !
信息。校验结果文件保存在./output/check_dataset_result.json
,同时相关产出会保存在当前目录的./output/check_dataset
目录下,产出目录中包括可视化的示例样本图片和样本分布直方图。
👉 校验结果详情(点击展开)
校验结果文件具体内容为:
{
"done_flag": true,
"check_pass": true,
"attributes": {
"num_classes": 4,
"train_samples": 701,
"train_sample_paths": [
"check_dataset/demo_img/road839.png",
"check_dataset/demo_img/road363.png",
"check_dataset/demo_img/road148.png",
"check_dataset/demo_img/road237.png",
"check_dataset/demo_img/road733.png",
"check_dataset/demo_img/road861.png",
"check_dataset/demo_img/road762.png",
"check_dataset/demo_img/road515.png",
"check_dataset/demo_img/road754.png",
"check_dataset/demo_img/road173.png"
],
"val_samples": 176,
"val_sample_paths": [
"check_dataset/demo_img/road218.png",
"check_dataset/demo_img/road681.png",
"check_dataset/demo_img/road138.png",
"check_dataset/demo_img/road544.png",
"check_dataset/demo_img/road596.png",
"check_dataset/demo_img/road857.png",
"check_dataset/demo_img/road203.png",
"check_dataset/demo_img/road589.png",
"check_dataset/demo_img/road655.png",
"check_dataset/demo_img/road245.png"
]
},
"analysis": {
"histogram": "check_dataset/histogram.png"
},
"dataset_path": "det_coco_examples",
"show_type": "image",
"dataset_type": "COCODetDataset"
}
上述校验结果中,check_pass 为 true 表示数据集格式符合要求,其他部分指标的说明如下:
attributes.num_classes
:该数据集类别数为 4;attributes.train_samples
:该数据集训练集样本数量为 704;attributes.val_samples
:该数据集验证集样本数量为 176;attributes.train_sample_paths
:该数据集训练集样本可视化图片相对路径列表;attributes.val_sample_paths
:该数据集验证集样本可视化图片相对路径列表;
另外,数据集校验还对数据集中所有类别的样本数量分布情况进行了分析,并绘制了分布直方图(histogram.png):
4.1.3 数据集格式转换/数据集划分(可选)¶
在您完成数据校验之后,可以通过修改配置文件或是追加超参数的方式对数据集的格式进行转换,也可以对数据集的训练/验证比例进行重新划分。
👉 格式转换/数据集划分详情(点击展开)
(1)数据集格式转换
目标检测支持 VOC
、LabelMe
格式的数据集转换为 COCO
格式。
数据集校验相关的参数可以通过修改配置文件中 CheckDataset
下的字段进行设置,配置文件中部分参数的示例说明如下:
CheckDataset
:convert
:enable
: 是否进行数据集格式转换,目标检测支持VOC
、LabelMe
格式的数据集转换为COCO
格式,默认为False
;src_dataset_type
: 如果进行数据集格式转换,则需设置源数据集格式,默认为null
,可选值为VOC
、LabelMe
和VOCWithUnlabeled
、LabelMeWithUnlabeled
; 例如,您想转换LabelMe
格式的数据集为COCO
格式,以下面的LabelMe
格式的数据集为例,则需要修改配置如下:
cd /path/to/paddlex
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/det_labelme_examples.tar -P ./dataset
tar -xf ./dataset/det_labelme_examples.tar -C ./dataset/
......
CheckDataset:
......
convert:
enable: True
src_dataset_type: LabelMe
......
随后执行命令:
python main.py -c paddlex/configs/modules/object_detection/PicoDet-S.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/det_labelme_examples
当然,以上参数同样支持通过追加命令行参数的方式进行设置,以 LabelMe
格式的数据集为例:
python main.py -c paddlex/configs/modules/object_detection/PicoDet-S.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/det_labelme_examples \
-o CheckDataset.convert.enable=True \
-o CheckDataset.convert.src_dataset_type=LabelMe
(2)数据集划分
数据集划分的参数可以通过修改配置文件中 CheckDataset
下的字段进行设置,配置文件中部分参数的示例说明如下:
CheckDataset
:split
:enable
: 是否进行重新划分数据集,为True
时进行数据集格式转换,默认为False
;train_percent
: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证和val_percent
值加和为100;val_percent
: 如果重新划分数据集,则需要设置验证集的百分比,类型为0-100之间的任意整数,需要保证和train_percent
值加和为100; 例如,您想重新划分数据集为 训练集占比90%、验证集占比10%,则需将配置文件修改为:
......
CheckDataset:
......
split:
enable: True
train_percent: 90
val_percent: 10
......
随后执行命令:
python main.py -c paddlex/configs/modules/object_detection/PicoDet-S.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/det_coco_examples
数据划分执行之后,原有标注文件会被在原路径下重命名为 xxx.bak
。
以上参数同样支持通过追加命令行参数的方式进行设置:
python main.py -c paddlex/configs/modules/object_detection/PicoDet-S.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/det_coco_examples \
-o CheckDataset.split.enable=True \
-o CheckDataset.split.train_percent=90 \
-o CheckDataset.split.val_percent=10
4.2 模型训练¶
一条命令即可完成模型的训练,以此处目标检测模型 PicoDet-S
的训练为例:
python main.py -c paddlex/configs/modules/object_detection/PicoDet-S.yaml \
-o Global.mode=train \
-o Global.dataset_dir=./dataset/det_coco_examples
- 指定模型的
.yaml
配置文件路径(此处为PicoDet-S.yaml
,训练其他模型时,需要的指定相应的配置文件,模型和配置的文件的对应关系,可以查阅PaddleX模型列表(CPU/GPU)) - 指定模式为模型训练:
-o Global.mode=train
- 指定训练数据集路径:
-o Global.dataset_dir
其他相关参数均可通过修改.yaml
配置文件中的Global
和Train
下的字段来进行设置,也可以通过在命令行中追加参数来进行调整。如指定前 2 卡 gpu 训练:-o Global.device=gpu:0,1
;设置训练轮次数为 10:-o Train.epochs_iters=10
。更多可修改的参数及其详细解释,可以查阅模型对应任务模块的配置文件说明PaddleX通用模型配置文件参数说明。
👉 更多说明(点击展开)
- 模型训练过程中,PaddleX 会自动保存模型权重文件,默认为
output
,如需指定保存路径,可通过配置文件中-o Global.output
字段进行设置。 - PaddleX 对您屏蔽了动态图权重和静态图权重的概念。在模型训练的过程中,会同时产出动态图和静态图的权重,在模型推理时,默认选择静态图权重推理。
-
在完成模型训练后,所有产出保存在指定的输出目录(默认为
./output/
)下,通常有以下产出: -
train_result.json
:训练结果记录文件,记录了训练任务是否正常完成,以及产出的权重指标、相关文件路径等; train.log
:训练日志文件,记录了训练过程中的模型指标变化、loss 变化等;config.yaml
:训练配置文件,记录了本次训练的超参数的配置;.pdparams
、.pdema
、.pdopt.pdstate
、.pdiparams
、.pdmodel
:模型权重相关文件,包括网络参数、优化器、EMA、静态图网络参数、静态图网络结构等;
4.3 模型评估¶
在完成模型训练后,可以对指定的模型权重文件在验证集上进行评估,验证模型精度。使用 PaddleX 进行模型评估,一条命令即可完成模型的评估:
python main.py -c paddlex/configs/modules/object_detection/PicoDet-S.yaml \
-o Global.mode=evaluate \
-o Global.dataset_dir=./dataset/det_coco_examples
- 指定模型的
.yaml
配置文件路径(此处为PicoDet-S.yaml
) - 指定模式为模型评估:
-o Global.mode=evaluate
- 指定验证数据集路径:
-o Global.dataset_dir
其他相关参数均可通过修改.yaml
配置文件中的Global
和Evaluate
下的字段来进行设置,详细请参考PaddleX通用模型配置文件参数说明。
👉 更多说明(点击展开)
在模型评估时,需要指定模型权重文件路径,每个配置文件中都内置了默认的权重保存路径,如需要改变,只需要通过追加命令行参数的形式进行设置即可,如-o Evaluate.weight_path=./output/best_model/best_model.pdparams
。
在完成模型评估后,会产出evaluate_result.json,其记录了
评估的结果,具体来说,记录了评估任务是否正常完成,以及模型的评估指标,包含 AP;
4.4 模型推理和模型集成¶
在完成模型的训练和评估后,即可使用训练好的模型权重进行推理预测或者进行Python集成。
4.4.1 模型推理¶
-
通过命令行的方式进行推理预测,只需如下一条命令。运行以下代码前,请您下载示例图片到本地。
与模型训练和评估类似,需要如下几步: -
指定模型的
.yaml
配置文件路径(此处为PicoDet-S.yaml
) - 指定模式为模型推理预测:
-o Global.mode=predict
- 指定模型权重路径:
-o Predict.model_dir="./output/best_model/inference"
- 指定输入数据路径:
-o Predict.input="..."
其他相关参数均可通过修改.yaml
配置文件中的Global
和Predict
下的字段来进行设置,详细请参考PaddleX通用模型配置文件参数说明。
4.4.2 模型集成¶
模型可以直接集成到 PaddleX 产线中,也可以直接集成到您自己的项目中。
1.产线集成
目标检测模块可以集成的PaddleX产线有通用目标检测产线,只需要替换模型路径即可完成相关产线的目标检测模块的模型更新。在产线集成中,你可以使用高性能部署和服务化部署来部署你得到的模型。
2.模块集成
您产出的权重可以直接集成到目标检测模块中,可以参考快速集成的 Python 示例代码,只需要将模型替换为你训练的到的模型路径即可。
您也可以利用 PaddleX 高性能推理插件来优化您模型的推理过程,进一步提升效率,详细的流程请参考PaddleX高性能推理指南。