图像分类模块使用教程¶
一、概述¶
图像分类模块是计算机视觉系统中的关键组成部分,负责对输入的图像进行分类。该模块的性能直接影响到整个计算机视觉系统的准确性和效率。图像分类模块通常会接收图像作为输入,然后通过深度学习或其他机器学习算法,根据图像的特性和内容,将其分类到预定义的类别中。例如,对于一个动物识别系统,图像分类模块可能需要将输入的图像分类为“猫”、“狗”、“马”等类别。图像分类模块的分类结果将作为输出,供其他模块或系统使用。
二、支持模型列表¶
模型 | 模型下载链接 | Top1 Acc(%) | GPU推理耗时(ms) [常规模式 / 高性能模式] |
CPU推理耗时(ms) [常规模式 / 高性能模式] |
模型存储大小 (M) |
---|---|---|---|---|---|
CLIP_vit_base_patch16_224 | 推理模型/训练模型 | 85.36 | 12.84 / 2.82 | 60.52 / 60.52 | 306.5 M |
MobileNetV3_small_x1_0 | 推理模型/训练模型 | 68.2 | 3.76 / 0.53 | 5.11 / 1.43 | 10.5 M |
PP-HGNet_small | 推理模型/训练模型 | 81.51 | 5.12 / 1.73 | 25.01 / 25.01 | 86.5 M |
PP-HGNetV2-B0 | 推理模型/训练模型 | 77.77 | 3.83 / 0.57 | 9.95 / 2.37 | 21.4 M |
PP-HGNetV2-B4 | 推理模型/训练模型 | 83.57 | 5.47 / 1.10 | 14.42 / 9.89 | 70.4 M |
PP-HGNetV2-B6 | 推理模型/训练模型 | 86.30 | 12.25 / 3.76 | 62.29 / 62.29 | 268.4 M |
PP-LCNet_x1_0 | 推理模型/训练模型 | 71.32 | 2.35 / 0.47 | 4.03 / 1.35 | 10.5 M |
ResNet50 | 推理模型/训练模型 | 76.5 | 6.44 / 1.16 | 15.04 / 11.63 | 90.8 M |
SwinTransformer_tiny_patch4_window7_224 | 推理模型/训练模型 | 81.10 | 6.66 / 2.15 | 60.45 / 60.45 | 100.1 M |
❗ 以上列出的是图像分类模块重点支持的9个核心模型,该模块总共支持80个模型,完整的模型列表如下:
👉模型列表详情
模型 | 模型下载链接 | Top1 Acc(%) | GPU推理耗时(ms) [常规模式 / 高性能模式] |
CPU推理耗时(ms) [常规模式 / 高性能模式] |
模型存储大小 (M) | 介绍 |
---|---|---|---|---|---|---|
CLIP_vit_base_patch16_224 | 推理模型/训练模型 | 85.36 | 12.84 / 2.82 | 60.52 / 60.52 | 306.5 M | CLIP是一种基于视觉和语言相关联的图像分类模型,采用对比学习和预训练方法,实现无监督或弱监督的图像分类,尤其适用于大规模数据集。模型通过将图像和文本映射到同一表示空间,学习到通用特征,具有良好的泛化能力和解释性。其在较好的训练误差,在很多下游任务都有较好的表现。 |
CLIP_vit_large_patch14_224 | 推理模型/训练模型 | 88.1 | 51.72 / 11.13 | 238.07 / 238.07 | 1.04 G | |
ConvNeXt_base_224 | 推理模型/训练模型 | 83.84 | 13.18 / 12.14 | 128.39 / 81.78 | 313.9 M | ConvNeXt系列模型是Meta在2022年提出的基于CNN架构的模型。该系列模型是在ResNet的基础上,通过借鉴SwinTransformer的优点设计,包括训练策略和网络结构的优化思路,从而改进的纯CNN架构网络,探索了卷积神经网络的性能上限。ConvNeXt系列模型具备卷积神经网络的诸多优点,包括推理效率高和易于迁移到下游任务等。 |
ConvNeXt_base_384 | 推理模型/训练模型 | 84.90 | 32.15 / 30.52 | 279.36 / 220.35 | 313.9 M | |
ConvNeXt_large_224 | 推理模型/训练模型 | 84.26 | 26.51 / 7.21 | 213.32 / 157.22 | 700.7 M | |
ConvNeXt_large_384 | 推理模型/训练模型 | 85.27 | 67.07 / 65.26 | 494.04 / 438.97 | 700.7 M | |
ConvNeXt_small | 推理模型/训练模型 | 83.13 | 9.05 / 8.21 | 97.94 / 55.29 | 178.0 M | |
ConvNeXt_tiny | 推理模型/训练模型 | 82.03 | 5.12 / 2.06 | 63.96 / 29.77 | 104.1 M | |
FasterNet-L | 推理模型/训练模型 | 83.5 | 15.67 / 3.10 | 52.24 / 52.24 | 357.1 M | FasterNet是一个旨在提高运行速度的神经网络,改进点主要如下: 1.重新审视了流行的运算符,发现低FLOPS主要来自于运算频繁的内存访问,特别是深度卷积; 2.提出了部分卷积(PConv),通过减少冗余计算和内存访问来更高效地提取图像特征; 3.基于PConv推出了FasterNet系列模型,这是一种新的设计方案,在不影响模型任务性能的情况下,在各种设备上实现了显著更高的运行速度。 |
FasterNet-M | 推理模型/训练模型 | 83.0 | 9.72 / 2.30 | 35.29 / 35.29 | 204.6 M | |
FasterNet-S | 推理模型/训练模型 | 81.3 | 5.46 / 1.27 | 20.46 / 18.03 | 119.3 M | |
FasterNet-T0 | 推理模型/训练模型 | 71.9 | 4.18 / 0.60 | 6.34 / 3.44 | 15.1 M | |
FasterNet-T1 | 推理模型/训练模型 | 75.9 | 4.24 / 0.64 | 9.57 / 5.20 | 29.2 M | |
FasterNet-T2 | 推理模型/训练模型 | 79.1 | 3.87 / 0.78 | 11.14 / 9.98 | 57.4 M | |
MobileNetV1_x0_5 | 推理模型/训练模型 | 63.5 | 1.39 / 0.28 | 2.74 / 1.02 | 4.8 M | MobileNetV1是Google于2017年发布的用于移动设备或嵌入式设备中的网络。该网络将传统的卷积操作拆解成深度可分离卷积,即Depthwise卷积和Pointwise卷积的组合。相比传统的卷积网络,该组合可以大大节省参数量和计算量。同时该网络可以用于图像分类等其他视觉任务中。 |
MobileNetV1_x0_25 | 推理模型/训练模型 | 51.4 | 1.32 / 0.30 | 2.04 / 0.58 | 1.8 M | |
MobileNetV1_x0_75 | 推理模型/训练模型 | 68.8 | 1.75 / 0.33 | 3.41 / 1.57 | 9.3 M | |
MobileNetV1_x1_0 | 推理模型/训练模型 | 71.0 | 1.89 / 0.34 | 4.01 / 2.17 | 15.2 M | |
MobileNetV2_x0_5 | 推理模型/训练模型 | 65.0 | 3.17 / 0.48 | 4.52 / 1.35 | 7.1 M | MobileNetV2是Google继MobileNetV1提出的一种轻量级网络。相比MobileNetV1,MobileNetV2提出了Linear bottlenecks与Inverted residual block作为网络基本结构,通过大量地堆叠这些基本模块,构成了MobileNetV2的网络结构。最后,在FLOPs只有MobileNetV1的一半的情况下取得了更高的分类精度。 |
MobileNetV2_x0_25 | 推理模型/训练模型 | 53.2 | 2.80 / 0.46 | 3.92 / 0.98 | 5.5 M | |
MobileNetV2_x1_0 | 推理模型/训练模型 | 72.2 | 3.57 / 0.49 | 5.63 / 2.51 | 12.6 M | |
MobileNetV2_x1_5 | 推理模型/训练模型 | 74.1 | 3.58 / 0.62 | 8.02 / 4.49 | 25.0 M | |
MobileNetV2_x2_0 | 推理模型/训练模型 | 75.2 | 3.56 / 0.74 | 10.24 / 6.83 | 41.2 M | |
MobileNetV3_large_x0_5 | 推理模型/训练模型 | 69.2 | 3.79 / 0.62 | 6.76 / 1.61 | 9.6 M | MobileNetV3是Google于2019年提出的一种基于NAS的轻量级网络。为了进一步提升效果,将relu和sigmoid激活函数分别替换为hard_swish与hard_sigmoid激活函数,同时引入了一些专门为减少网络计算量的改进策略。 |
MobileNetV3_large_x0_35 | 推理模型/训练模型 | 64.3 | 3.70 / 0.60 | 5.54 / 1.41 | 7.5 M | |
MobileNetV3_large_x0_75 | 推理模型/训练模型 | 73.1 | 4.82 / 0.66 | 7.45 / 2.00 | 14.0 M | |
MobileNetV3_large_x1_0 | 推理模型/训练模型 | 75.3 | 4.86 / 0.68 | 6.88 / 2.61 | 19.5 M | |
MobileNetV3_large_x1_25 | 推理模型/训练模型 | 76.4 | 5.08 / 0.71 | 7.37 / 3.58 | 26.5 M | |
MobileNetV3_small_x0_5 | 推理模型/训练模型 | 59.2 | 3.41 / 0.57 | 5.60 / 1.14 | 6.8 M | |
MobileNetV3_small_x0_35 | 推理模型/训练模型 | 53.0 | 3.49 / 0.60 | 4.63 / 1.07 | 6.0 M | |
MobileNetV3_small_x0_75 | 推理模型/训练模型 | 66.0 | 3.49 / 0.60 | 5.19 / 1.28 | 8.5 M | |
MobileNetV3_small_x1_0 | 推理模型/训练模型 | 68.2 | 3.76 / 0.53 | 5.11 / 1.43 | 10.5 M | |
MobileNetV3_small_x1_25 | 推理模型/训练模型 | 70.7 | 4.23 / 0.58 | 6.48 / 1.68 | 13.0 M | |
MobileNetV4_conv_large | 推理模型/训练模型 | 83.4 | 8.33 / 2.24 | 33.56 / 23.70 | 125.2 M | MobileNetV4是专为移动设备设计的高效架构。其核心在于引入了UIB(Universal Inverted Bottleneck)模块,这是一种统一且灵活的结构,融合了IB(Inverted Bottleneck)、ConvNeXt、FFN(Feed Forward Network)以及最新的ExtraDW(Extra Depthwise)模块。与UIB同时推出的还有Mobile MQA,这是种专为移动加速器定制的注意力块,可实现高达39%的显著加速。此外,MobileNetV4引入了一种新的神经架构搜索(Neural Architecture Search, NAS)方案,以提升搜索的有效性。 |
MobileNetV4_conv_medium | 推理模型/训练模型 | 79.9 | 6.81 / 0.92 | 12.47 / 6.27 | 37.6 M | |
MobileNetV4_conv_small | 推理模型/训练模型 | 74.6 | 3.25 / 0.46 | 4.42 / 1.54 | 14.7 M | |
MobileNetV4_hybrid_large | 推理模型/训练模型 | 83.8 | 12.27 / 4.18 | 58.64 / 58.64 | 145.1 M | |
MobileNetV4_hybrid_medium | 推理模型/训练模型 | 80.5 | 12.08 / 1.34 | 24.69 / 8.10 | 42.9 M | |
PP-HGNet_base | 推理模型/训练模型 | 85.0 | 14.10 / 4.19 | 68.92 / 68.92 | 249.4 M | PP-HGNet(High Performance GPU Net)是百度飞桨视觉团队研发的适用于GPU平台的高性能骨干网络。该网络结合VOVNet的基础出使用了可学习的下采样层(LDS Layer),融合了ResNet_vd、PPHGNet等模型的优点。该模型在GPU平台上与其他SOTA模型在相同的速度下有着更高的精度。在同等速度下,该模型高于ResNet34-0模型3.8个百分点,高于ResNet50-0模型2.4个百分点,在使用相同的SLSD条款下,最终超越了ResNet50-D模型4.7个百分点。与此同时,在相同精度下,其推理速度也远超主流VisionTransformer的推理速度。 |
PP-HGNet_small | 推理模型/训练模型 | 81.51 | 5.12 / 1.73 | 25.01 / 25.01 | 86.5 M | |
PP-HGNet_tiny | 推理模型/训练模型 | 79.83 | 3.28 / 1.29 | 16.40 / 15.97 | 52.4 M | |
PP-HGNetV2-B0 | 推理模型/训练模型 | 77.77 | 3.83 / 0.57 | 9.95 / 2.37 | 21.4 M | PP-HGNetV2(High Performance GPU Network V2)是百度飞桨视觉团队的PP-HGNet的下一代版本,其在PP-HGNet的基础上,做了进一步优化和改进,其在NVIDIA发布的“Accuracy-Latency Balance”做到了极致,精度大幅超越了其他同样推理速度的模型。在每种标签分类,考标场景中,都有较强的表现。 |
PP-HGNetV2-B1 | 推理模型/训练模型 | 79.18 | 3.87 / 0.62 | 8.77 / 3.79 | 22.6 M | |
PP-HGNetV2-B2 | 推理模型/训练模型 | 81.74 | 5.73 / 0.86 | 15.11 / 7.05 | 39.9 M | |
PP-HGNetV2-B3 | 推理模型/训练模型 | 82.98 | 6.26 / 1.01 | 18.47 / 10.34 | 57.9 M | |
PP-HGNetV2-B4 | 推理模型/训练模型 | 83.57 | 5.47 / 1.10 | 14.42 / 9.89 | 70.4 M | |
PP-HGNetV2-B5 | 推理模型/训练模型 | 84.75 | 10.24 / 1.96 | 29.71 / 29.71 | 140.8 M | |
PP-HGNetV2-B6 | 推理模型/训练模型 | 86.30 | 12.25 / 3.76 | 62.29 / 62.29 | 268.4 M | |
PP-LCNet_x0_5 | 推理模型/训练模型 | 63.14 | 2.28 / 0.42 | 2.86 / 0.83 | 6.7 M | PP-LCNet是百度飞桨视觉团队自研的轻量级骨干网络,它能在不增加推理时间的前提下,进一步提升模型的性能,大幅超越其他轻量级SOTA模型。 |
PP-LCNet_x0_25 | 推理模型/训练模型 | 51.86 | 1.89 / 0.45 | 2.49 / 0.68 | 5.5 M | |
PP-LCNet_x0_35 | 推理模型/训练模型 | 58.09 | 1.94 / 0.41 | 2.73 / 0.77 | 5.9 M | |
PP-LCNet_x0_75 | 推理模型/训练模型 | 68.18 | 2.30 / 0.41 | 2.95 / 1.07 | 8.4 M | |
PP-LCNet_x1_0 | 推理模型/训练模型 | 71.32 | 2.35 / 0.47 | 4.03 / 1.35 | 10.5 M | |
PP-LCNet_x1_5 | 推理模型/训练模型 | 73.71 | 2.33 / 0.53 | 4.17 / 2.29 | 16.0 M | |
PP-LCNet_x2_0 | 推理模型/训练模型 | 75.18 | 2.40 / 0.51 | 5.37 / 3.46 | 23.2 M | |
PP-LCNet_x2_5 | 推理模型/训练模型 | 76.60 | 2.36 / 0.61 | 6.29 / 5.05 | 32.1 M | |
PP-LCNetV2_base | 推理模型/训练模型 | 77.05 | 3.33 / 0.55 | 6.86 / 3.77 | 23.7 M | PP-LCNetV2 图像分类模型是百度飞桨视觉团队自研的 PP-LCNet 的下一代版本,其在 PP-LCNet 的基础上,做了进一步优化和改进,主要使用重参数化策略组合了不同大小卷积核的深度卷积,并优化了点卷积、Shortcut等。在不使用额外数据的前提下,PPLCNetV2_base 模型在图像分类 ImageNet 数据集上能够取得超过 77% 的 Top1 Acc,同时在 Intel CPU 平台的推理时间在 4.4 ms 以下 |
PP-LCNetV2_large | 推理模型/训练模型 | 78.51 | 4.37 / 0.71 | 9.43 / 8.07 | 37.3 M | |
PP-LCNetV2_small | 推理模型/训练模型 | 73.97 | 2.53 / 0.41 | 5.14 / 1.98 | 14.6 M | |
ResNet18_vd | 推理模型/训练模型 | 72.3 | 2.47 / 0.61 | 6.97 / 5.15 | 41.5 M | ResNet 系列模型是在 2015 年提出的,一举在 ILSVRC2015 比赛中取得冠军,top5 错误率为 3.57%。该网络创新性的提出了残差结构,通过堆叠多个残差结构从而构建了 ResNet 网络。实验表明使用残差块可以有效地提升收敛速度和精度。 |
ResNet18 | 推理模型/训练模型 | 71.0 | 2.35 / 0.67 | 6.35 / 4.61 | 41.5 M | |
ResNet34_vd | 推理模型/训练模型 | 76.0 | 4.01 / 1.03 | 11.99 / 9.86 | 77.3 M | |
ResNet34 | 推理模型/训练模型 | 74.6 | 3.99 / 1.02 | 12.42 / 9.81 | 77.3 M | |
ResNet50_vd | 推理模型/训练模型 | 79.1 | 6.04 / 1.16 | 16.08 / 12.07 | 90.8 M | |
ResNet50 | 推理模型/训练模型 | 76.5 | 6.44 / 1.16 | 15.04 / 11.63 | 90.8 M | |
ResNet101_vd | 推理模型/训练模型 | 80.2 | 11.16 / 2.07 | 32.14 / 32.14 | 158.4 M | |
ResNet101 | 推理模型/训练模型 | 77.6 | 10.91 / 2.06 | 31.14 / 22.93 | 158.4 M | |
ResNet152_vd | 推理模型/训练模型 | 80.6 | 15.96 / 2.99 | 49.33 / 49.33 | 214.3 M | |
ResNet152 | 推理模型/训练模型 | 78.3 | 15.61 / 2.90 | 47.33 / 36.60 | 214.2 M | |
ResNet200_vd | 推理模型/训练模型 | 80.9 | 24.20 / 3.69 | 62.62 / 62.62 | 266.0 M | |
StarNet-S1 | 推理模型/训练模型 | 73.6 | 6.33 / 1.98 | 7.56 / 3.26 | 11.2 M | StarNet 聚焦于研究网络设计中“星操作”(即元素级乘法)的未开发潜力。揭示星操作能够将输入映射到高维、非线性特征空间的能力,这一过程类似于核技巧,但无需扩大网络规模。因此进一步提出了 StarNet,一个简单而强大的原型网络,该网络在紧凑的网络结构和有限的计算资源下,展现出了卓越的性能和低延迟。 |
StarNet-S2 | 推理模型/训练模型 | 74.8 | 4.49 / 1.55 | 7.38 / 3.38 | 14.3 M | |
StarNet-S3 | 推理模型/训练模型 | 77.0 | 6.70 / 1.62 | 11.05 / 4.76 | 22.2 M | |
StarNet-S4 | 推理模型/训练模型 | 79.0 | 8.50 / 2.86 | 15.40 / 6.76 | 28.9 M | |
SwinTransformer_base_patch4_window7_224 | 推理模型/训练模型 | 83.37 | 14.29 / 5.13 | 130.89 / 130.89 | 310.5 M | SwinTransformer 是一种新的视觉 Transformer 网络,可以用作计算机视觉领域的通用骨干网路。SwinTransformer 由移动窗口(shifted windows)表示的层次 Transformer 结构组成。移动窗口将自注意计算限制在非重叠的局部窗口上,同时允许跨窗口连接,从而提高了网络性能。 |
SwinTransformer_base_patch4_window12_384 | 推理模型/训练模型 | 84.17 | 37.74 / 10.10 | 362.56 / 362.56 | 311.4 M | |
SwinTransformer_large_patch4_window7_224 | 推理模型/训练模型 | 86.19 | 26.48 / 7.94 | 228.23 / 228.23 | 694.8 M | |
SwinTransformer_large_patch4_window12_384 | 推理模型/训练模型 | 87.06 | 74.72 / 18.16 | 652.04 / 652.04 | 696.1 M | |
SwinTransformer_small_patch4_window7_224 | 推理模型/训练模型 | 83.21 | 10.37 / 3.90 | 94.20 / 94.20 | 175.6 M | |
SwinTransformer_tiny_patch4_window7_224 | 推理模型/训练模型 | 81.10 | 6.66 / 2.15 | 60.45 / 60.45 | 100.1 M |
三、快速集成¶
❗ 在快速集成前,请先安装 PaddleX 的 wheel 包,详细请参考 PaddleX本地安装教程。
完成 wheel 包的安装后,几行代码即可完成图像分类模块的推理,可以任意切换该模块下的模型,您也可以将图像分类的模块中的模型推理集成到您的项目中。运行以下代码前,请您下载示例图片到本地。
from paddlex import create_model
model = create_model(model_name="PP-LCNet_x1_0")
output = model.predict("general_image_classification_001.jpg", batch_size=1)
for res in output:
res.print(json_format=False)
res.save_to_img("./output/")
res.save_to_json("./output/res.json")
运行后,得到的结果为:
{'res': {'input_path': 'general_image_classification_001.jpg', 'page_index': None, 'class_ids': array([296, 279, 270, 537, 356], dtype=int32), 'scores': array([0.79155, 0.01738, 0.01428, 0.01301, 0.01222], dtype=float32), 'label_names': ['ice bear, polar bear, Ursus Maritimus, Thalarctos maritimus', 'Arctic fox, white fox, Alopex lagopus', 'white wolf, Arctic wolf, Canis lupus tundrarum', 'dogsled, dog sled, dog sleigh', 'weasel']}}
运行结果参数含义如下:
- input_path
:表示输入图片的路径。
- page_index
:如果输入是PDF文件,则表示当前是PDF的第几页,否则为 None
。
- class_ids
:表示预测结果的类别id。
- scores
:表示预测结果的置信度。
- label_names
:表示预测结果的类别名。
可视化图片如下:
相关方法、参数等说明如下:
create_model
实例化图像分类模型(此处以PP-LCNet_x1_0
为例),具体说明如下:
参数 | 参数说明 | 参数类型 | 可选项 | 默认值 |
---|---|---|---|---|
model_name |
模型名称 | str |
无 | 无 |
model_dir |
模型存储路径 | str |
无 | 无 |
topk |
预测结果的前topk 值,如果不指定,将默认使用PaddleX官方模型配置 |
int |
|
5 |
use_hpip |
是否启用高性能推理 | bool |
无 | False |
-
其中,
model_name
必须指定,指定model_name
后,默认使用 PaddleX 内置的模型参数,在此基础上,指定model_dir
时,使用用户自定义的模型。 -
调用图像分类模型的
predict()
方法进行推理预测,predict()
方法参数有input
和batch_size
,具体说明如下:
参数 | 参数说明 | 参数类型 | 可选项 | 默认值 |
---|---|---|---|---|
input |
待预测数据,支持多种输入类型 | Python Var /str /list |
|
无 |
batch_size |
批大小 | int |
任意整数 | 1 |
topk |
预测结果的前topk 值;如果不指定,将默认使用 creat_model 指定的 topk 参数,如果 creat_model 也没有指定,则默认使用PaddleX官方模型配置 |
int |
|
5 |
- 对预测结果进行处理,每个样本的预测结果均为对应的Result对象,且支持打印、保存为图片、保存为
json
文件的操作:
方法 | 方法说明 | 参数 | 参数类型 | 参数说明 | 默认值 |
---|---|---|---|---|---|
print() |
打印结果到终端 | format_json |
bool |
是否对输出内容进行使用 JSON 缩进格式化 |
True |
indent |
int |
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 |
4 | ||
ensure_ascii |
bool |
控制是否将非 ASCII 字符转义为 Unicode 。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json 为True 时有效 |
False |
||
save_to_json() |
将结果保存为json格式的文件 | save_path |
str |
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 | 无 |
indent |
int |
指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_json 为 True 时有效 |
4 | ||
ensure_ascii |
bool |
控制是否将非 ASCII 字符转义为 Unicode 。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_json 为True 时有效 |
False |
||
save_to_img() |
将结果保存为图像格式的文件 | save_path |
str |
保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致 | 无 |
- 此外,也支持通过属性获取带结果的可视化图像和预测结果,具体如下:
属性 | 属性说明 |
---|---|
json |
获取预测的json 格式的结果 |
img |
获取格式为dict 的可视化图像 |
关于更多 PaddleX 的单模型推理的 API 的使用方法,可以参考PaddleX单模型Python脚本使用说明。
四、二次开发¶
如果你追求更高精度的现有模型,可以使用 PaddleX 的二次开发能力,开发更好的图像分类模型。在使用 PaddleX 开发图像分类模型之前,请务必安装 PaddleX 的 图像分类 PaddleX本地安装教程中的二次开发部分。
4.1 数据准备¶
在进行模型训练前,需要准备相应任务模块的数据集。PaddleX 针对每一个模块提供了数据校验功能,只有通过数据校验的数据才可以进行模型训练。此外,PaddleX 为每一个模块都提供了 Demo 数据集,您可以基于官方提供的 Demo 数据完成后续的开发。若您希望用私有数据集进行后续的模型训练,可以参考PaddleX图像分类任务模块数据标注教程
4.1.1 Demo 数据下载¶
您可以参考下面的命令将 Demo 数据集下载到指定文件夹:
cd /path/to/paddlex
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/cls_flowers_examples.tar -P ./dataset
tar -xf ./dataset/cls_flowers_examples.tar -C ./dataset/
4.1.2 数据校验¶
一行命令即可完成数据校验:
python main.py -c paddlex/configs/modules/image_classification/PP-LCNet_x1_0.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/cls_flowers_examples
Check dataset passed !
信息。校验结果文件保存在./output/check_dataset_result.json
,同时相关产出会保存在当前目录的./output/check_dataset
目录下,产出目录中包括可视化的示例样本图片和样本分布直方图。
👉 校验结果详情(点击展开)
校验结果文件具体内容为:
{
"done_flag": true,
"check_pass": true,
"attributes": {
"label_file": "dataset/label.txt",
"num_classes": 102,
"train_samples": 1020,
"train_sample_paths": [
"check_dataset/demo_img/image_01904.jpg",
"check_dataset/demo_img/image_06940.jpg"
],
"val_samples": 1020,
"val_sample_paths": [
"check_dataset/demo_img/image_01937.jpg",
"check_dataset/demo_img/image_06958.jpg"
]
},
"analysis": {
"histogram": "check_dataset/histogram.png"
},
"dataset_path": "cls_flowers_examples",
"show_type": "image",
"dataset_type": "ClsDataset"
}
上述校验结果中,check_pass 为 True 表示数据集格式符合要求,其他部分指标的说明如下:
attributes.num_classes
:该数据集类别数为 102;attributes.train_samples
:该数据集训练集样本数量为 1020;attributes.val_samples
:该数据集验证集样本数量为 1020;attributes.train_sample_paths
:该数据集训练集样本可视化图片相对路径列表;attributes.val_sample_paths
:该数据集验证集样本可视化图片相对路径列表;
另外,数据集校验还对数据集中所有类别的样本数量分布情况进行了分析,并绘制了分布直方图(histogram.png):
4.1.3 数据集格式转换/数据集划分(可选)¶
在您完成数据校验之后,可以通过修改配置文件或是追加超参数的方式对数据集的格式进行转换,也可以对数据集的训练/验证比例进行重新划分。
👉 格式转换/数据集划分详情(点击展开)
(1)数据集格式转换
图像分类暂不支持数据转换。
(2)数据集划分
数据集划分的参数可以通过修改配置文件中 CheckDataset
下的字段进行设置,配置文件中部分参数的示例说明如下:
CheckDataset
:split
:enable
: 是否进行重新划分数据集,为True
时进行数据集格式转换,默认为False
;train_percent
: 如果重新划分数据集,则需要设置训练集的百分比,类型为 0-100 之间的任意整数,需要保证和val_percent
值加和为100;
例如,您想重新划分数据集为 训练集占比90%、验证集占比10%,则需将配置文件修改为:
......
CheckDataset:
......
split:
enable: True
train_percent: 90
val_percent: 10
......
随后执行命令:
python main.py -c paddlex/configs/modules/image_classification/PP-LCNet_x1_0.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/cls_flowers_examples
数据划分执行之后,原有标注文件会被在原路径下重命名为 xxx.bak
。
以上参数同样支持通过追加命令行参数的方式进行设置:
python main.py -c paddlex/configs/modules/image_classification/PP-LCNet_x1_0.yaml \
-o Global.mode=check_dataset \
-o Global.dataset_dir=./dataset/cls_flowers_examples \
-o CheckDataset.split.enable=True \
-o CheckDataset.split.train_percent=90 \
-o CheckDataset.split.val_percent=10
4.2 模型训练¶
一条命令即可完成模型的训练,以此处图像分类模型 PP-LCNet_x1_0 的训练为例:
python main.py -c paddlex/configs/modules/image_classification/PP-LCNet_x1_0.yaml \
-o Global.mode=train \
-o Global.dataset_dir=./dataset/cls_flowers_examples
- 指定模型的
.yaml
配置文件路径(此处为PP-LCNet_x1_0.yaml
,训练其他模型时,需要的指定相应的配置文件,模型和配置的文件的对应关系,可以查阅PaddleX模型列表(CPU/GPU)) - 指定模式为模型训练:
-o Global.mode=train
- 指定训练数据集路径:
-o Global.dataset_dir
其他相关参数均可通过修改.yaml
配置文件中的Global
和Train
下的字段来进行设置,也可以通过在命令行中追加参数来进行调整。如指定前 2 卡 gpu 训练:-o Global.device=gpu:0,1
;设置训练轮次数为 10:-o Train.epochs_iters=10
。更多可修改的参数及其详细解释,可以查阅模型对应任务模块的配置文件说明PaddleX通用模型配置文件参数说明。
👉 更多说明(点击展开)
- 模型训练过程中,PaddleX 会自动保存模型权重文件,默认为
output
,如需指定保存路径,可通过配置文件中-o Global.output
字段进行设置。 - PaddleX 对您屏蔽了动态图权重和静态图权重的概念。在模型训练的过程中,会同时产出动态图和静态图的权重,在模型推理时,默认选择静态图权重推理。
-
在完成模型训练后,所有产出保存在指定的输出目录(默认为
./output/
)下,通常有以下产出: -
train_result.json
:训练结果记录文件,记录了训练任务是否正常完成,以及产出的权重指标、相关文件路径等; train.log
:训练日志文件,记录了训练过程中的模型指标变化、loss 变化等;config.yaml
:训练配置文件,记录了本次训练的超参数的配置;.pdparams
、.pdema
、.pdopt.pdstate
、.pdiparams
、.pdmodel
:模型权重相关文件,包括网络参数、优化器、EMA、静态图网络参数、静态图网络结构等;
4.3 模型评估¶
在完成模型训练后,可以对指定的模型权重文件在验证集上进行评估,验证模型精度。使用 PaddleX 进行模型评估,一条命令即可完成模型的评估:
python main.py -c paddlex/configs/modules/image_classification/PP-LCNet_x1_0.yaml \
-o Global.mode=evaluate \
-o Global.dataset_dir=./dataset/cls_flowers_examples
- 指定模型的
.yaml
配置文件路径(此处为PP-LCNet_x1_0.yaml
) - 指定模式为模型评估:
-o Global.mode=evaluate
- 指定验证数据集路径:
-o Global.dataset_dir
其他相关参数均可通过修改.yaml
配置文件中的Global
和Evaluate
下的字段来进行设置,详细请参考PaddleX通用模型配置文件参数说明。
👉 更多说明(点击展开)
在模型评估时,需要指定模型权重文件路径,每个配置文件中都内置了默认的权重保存路径,如需要改变,只需要通过追加命令行参数的形式进行设置即可,如-o Evaluate.weight_path=./output/best_model/best_model.pdparams
。
在完成模型评估后,会产出evaluate_result.json,其记录了
评估的结果,具体来说,记录了评估任务是否正常完成,以及模型的评估指标,包含 val.top1、val.top5;
4.4 模型推理和模型集成¶
在完成模型的训练和评估后,即可使用训练好的模型权重进行推理预测或者进行Python集成。
4.4.1 模型推理¶
通过命令行的方式进行推理预测,只需如下一条命令。运行以下代码前,请您下载示例图片到本地。
python main.py -c paddlex/configs/modules/image_classification/PP-LCNet_x1_0.yaml \
-o Global.mode=predict \
-o Predict.model_dir="./output/best_model/inference" \
-o Predict.input="general_image_classification_001.jpg"
- 指定模型的
.yaml
配置文件路径(此处为PP-LCNet_x1_0.yaml
) - 指定模式为模型推理预测:
-o Global.mode=predict
- 指定模型权重路径:
-o Predict.model_dir="./output/best_model/inference"
- 指定输入数据路径:
-o Predict.input="..."
其他相关参数均可通过修改.yaml
配置文件中的Global
和Predict
下的字段来进行设置,详细请参考PaddleX通用模型配置文件参数说明。
4.4.2 模型集成¶
模型可以直接集成到 PaddleX 产线中,也可以直接集成到您自己的项目中。
1.产线集成
图像分类模块可以集成的 PaddleX 产线有通用图像分类产线,只需要替换模型路径即可完成相关产线的图像分类模块的模型更新。在产线集成中,你可以使用高性能部署和服务化部署来部署你得到的模型。
2.模块集成
您产出的权重可以直接集成到图像分类模块中,可以参考快速集成的 Python 示例代码,只需要将模型替换为你训练的到的模型路径即可。
您也可以利用 PaddleX 高性能推理插件来优化您模型的推理过程,进一步提升效率,详细的流程请参考PaddleX高性能推理指南。