跳转至

文本行方向分类模块使用教程

一、概述

文本行方向分类模块主要是将文本行的方向区分出来,并使用后处理将其矫正。在诸如文档扫描、证照拍摄等过程中,有时为了拍摄更清晰,会将拍摄设备进行旋转,导致得到的文本行也是不同方向的。此时,标准的OCR流程无法很好地应对这些数据。利用图像分类技术,可以预先判断文本行方向,并将其进行方向调整,从而提高OCR处理的准确性。

二、支持模型列表

模型 模型下载链接 Top-1 Acc(%) GPU推理耗时(ms) CPU推理耗时 (ms) 模型存储大小(M) 介绍
PP-LCNet_x0_25_textline_ori推理模型/训练模型 95.54 - - 0.32 基于PP-LCNet_x0_25的文本行分类模型,含有两个类别,即0度,180度

测试环境说明:

  • 性能测试环境
  • 测试数据集:PaddleX 自建的数据集,覆盖证件和文档等多个场景,包含 1000 张图片。
  • 硬件配置

    • GPU:NVIDIA Tesla T4
    • CPU:Intel Xeon Gold 6271C @ 2.60GHz
    • 其他环境:Ubuntu 20.04 / cuDNN 8.6 / TensorRT 8.5.2.2
  • 推理模式说明

模式 GPU配置 CPU配置 加速技术组合
常规模式 FP32精度 / 无TRT加速 FP32精度 / 8线程 PaddleInference
高性能模式 选择先验精度类型和加速策略的最优组合 FP32精度 / 8线程 选择先验最优后端(Paddle/OpenVINO/TRT等)

三、快速集成

❗ 在快速集成前,请先安装 PaddleX 的 wheel 包,详细请参考 PaddleX本地安装教程

完成wheel 包的安装后,几行代码即可完成文本行方向分类模块的推理,可以任意切换该模块下的模型,您也可以将文本行方向分类模块中的模型推理集成到您的项目中。运行以下代码前,请您下载示例图片到本地。

from paddlex import create_model
model = create_model(model_name="PP-LCNet_x0_25_textline_ori")
output = model.predict("textline_rot180_demo.jpg",  batch_size=1)
for res in output:
    res.print(json_format=False)
    res.save_to_img("./output/demo.png")
    res.save_to_json("./output/res.json")

运行后,得到的结果为:

{'res': {'input_path': 'textline_rot180_demo.jpg', 'page_index': None, 'class_ids': array([1], dtype=int32), 'scores': array([1.], dtype=float32), 'label_names': ['180_degree']}}

运行结果参数含义如下: - input_path:表示输入图片的路径。 - page_index:如果输入是PDF文件,则表示当前是PDF的第几页,否则为 None - class_ids:表示预测结果的类别 id,含有两个类别,即0度和180度。 - scores:表示预测结果的置信度。 - label_names:表示预测结果的类别名。

可视化图片如下:

相关方法、参数等说明如下:

  • create_model实例化文本行方向分类模型(此处以PP-LCNet_x0_25_textline_ori为例),具体说明如下:
参数 参数说明 参数类型 可选项 默认值
model_name 模型名称 str
model_dir 模型存储路径 str
  • 其中,model_name 必须指定,指定 model_name 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 model_dir 时,使用用户自定义的模型。

  • 调用文本行方向分类模型的 predict() 方法进行推理预测,predict() 方法参数有 inputbatch_size,具体说明如下:

参数 参数说明 参数类型 可选项 默认值
input 待预测数据,支持多种输入类型 Python Var/str/list
  • Python变量,如numpy.ndarray表示的图像数据
  • 文件路径,如图像文件的本地路径:/root/data/img.jpg
  • URL链接,如图像文件的网络URL:示例
  • 本地目录,该目录下需包含待预测数据文件,如本地路径:/root/data/
  • 列表,列表元素需为上述类型数据,如[numpy.ndarray, numpy.ndarray][\"/root/data/img1.jpg\", \"/root/data/img2.jpg\"][\"/root/data1\", \"/root/data2\"]
batch_size 批大小 int 任意整数 1
  • 对预测结果进行处理,每个样本的预测结果均为对应的Result对象,且支持打印、保存为图片、保存为json文件的操作:
方法 方法说明 参数 参数类型 参数说明 默认值
print() 打印结果到终端 format_json bool 是否对输出内容进行使用 JSON 缩进格式化 True
indent int 指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_jsonTrue 时有效 4
ensure_ascii bool 控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_jsonTrue时有效 False
save_to_json() 将结果保存为json格式的文件 save_path str 保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致
indent int 指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_jsonTrue 时有效 4
ensure_ascii bool 控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_jsonTrue时有效 False
save_to_img() 将结果保存为图像格式的文件 save_path str 保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致
  • 此外,也支持通过属性获取带结果的可视化图像和预测结果,具体如下:
属性 属性说明
json 获取预测的json格式的结果
img 获取格式为dict的可视化图像

关于更多 PaddleX 的单模型推理的 API 的使用方法,可以参考的使用方法,可以参考PaddleX单模型Python脚本使用说明

四、二次开发

如果你追求更高精度的现有模型,可以使用PaddleX的二次开发能力,开发更好的文本行方向分类模型。在使用PaddleX开发文本行方向分类模型之前,请务必安装PaddleX的分类相关的模型训练能力,安装过程可以参考 PaddleX本地安装教程

4.1 数据准备

在进行模型训练前,需要准备相应任务模块的数据集。PaddleX 针对每一个模块提供了数据校验功能,只有通过数据校验的数据才可以进行模型训练。此外,PaddleX为每一个模块都提供了 Demo 数据集,您可以基于官方提供的 Demo 数据完成后续的开发。若您希望用私有数据集进行后续的模型训练,可以参考PaddleX图像分类任务模块数据准备教程

4.1.1 Demo 数据下载

您可以参考下面的命令将 Demo 数据集下载到指定文件夹:

wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/textline_orientation_example_data.tar -P ./dataset
tar -xf ./dataset/textline_orientation_example_data.tar -C ./dataset/

4.1.2 数据校验

一行命令即可完成数据校验:

python main.py -c paddlex/configs/modules/textline_orientation/PP-LCNet_x0_25_textline_ori.yaml \
    -o Global.mode=check_dataset \
    -o Global.dataset_dir=./dataset/textline_orientation_example_data
执行上述命令后,PaddleX 会对数据集进行校验,并统计数据集的基本信息,命令运行成功后会在log中打印出Check dataset passed !信息。校验结果文件保存在./output/check_dataset_result.json,同时相关产出会保存在当前目录的./output/check_dataset目录下,产出目录中包括可视化的示例样本图片和样本分布直方图。

👉 校验结果详情(点击展开)

校验结果文件具体内容为:

{
  "done_flag": true,
  "check_pass": true,
  "attributes": {
    "label_file": "..\/..\/dataset\/textline_orientation_example_data\/label.txt",
    "num_classes": 2,
    "train_samples": 1760,
    "train_sample_paths": [
      "check_dataset\/demo_img\/ILSVRC2012_val_00019234_4284.jpg",
      "check_dataset\/demo_img\/lsvt_train_images_4655.jpg",
      "check_dataset\/demo_img\/lsvt_train_images_60562.jpg",
      "check_dataset\/demo_img\/lsvt_train_images_14013.jpg",
      "check_dataset\/demo_img\/ILSVRC2012_val_00011156_12950.jpg",
      "check_dataset\/demo_img\/ILSVRC2012_val_00016578_10192.jpg",
      "check_dataset\/demo_img\/26920921_2341381071.jpg",
      "check_dataset\/demo_img\/31979250_3394569384.jpg",
      "check_dataset\/demo_img\/25959328_518853598.jpg",
      "check_dataset\/demo_img\/ILSVRC2012_val_00018420_14077.jpg"
    ],
    "val_samples": 440,
    "val_sample_paths": [
      "check_dataset\/demo_img\/lsvt_train_images_79109.jpg",
      "check_dataset\/demo_img\/lsvt_train_images_131133.jpg",
      "check_dataset\/demo_img\/mtwi_train_images_65423.jpg",
      "check_dataset\/demo_img\/lsvt_train_images_120718.jpg",
      "check_dataset\/demo_img\/mtwi_train_images_58098.jpg",
      "check_dataset\/demo_img\/rctw_train_images_25817.jpg",
      "check_dataset\/demo_img\/lsvt_val_images_6336.jpg",
      "check_dataset\/demo_img\/lsvt_train_images_71775.jpg",
      "check_dataset\/demo_img\/mtwi_train_images_78064.jpg",
      "check_dataset\/demo_img\/mtwi_train_images_52578.jpg"
    ]
  },
  "analysis": {
    "histogram": "check_dataset\/histogram.png"
  },
  "dataset_path": "textline_orientation_example_data",
  "show_type": "image",
  "dataset_type": "ClsDataset"
}

上述校验结果中,check_pass 为 True 表示数据集格式符合要求,其他部分指标的说明如下:

  • attributes.num_classes:该数据集类别数为 2;
  • attributes.train_samples:该数据集训练集样本数量为 1760;
  • attributes.val_samples:该数据集验证集样本数量为 440;
  • attributes.train_sample_paths:该数据集训练集样本可视化图片相对路径列表;
  • attributes.val_sample_paths:该数据集验证集样本可视化图片相对路径列表;

数据集校验还对数据集中所有类别的样本数量分布情况进行了分析,并绘制了分布直方图(histogram.png):

4.1.3 数据集格式转换/数据集划分(可选)

在您完成数据校验之后,可以通过修改配置文件或是追加超参数的方式对数据集的格式进行转换,也可以对数据集的训练/验证比例进行重新划分。

👉 格式转换/数据集划分详情(点击展开)

(1)数据集格式转换

文本行方向分类暂不支持数据格式转换。

(2)数据集划分

数据集划分的参数可以通过修改配置文件中 CheckDataset 下的字段进行设置,配置文件中部分参数的示例说明如下:

  • CheckDataset:
  • split:
  • enable: 是否进行重新划分数据集,为 True 时进行数据集格式转换,默认为 False
  • train_percent: 如果重新划分数据集,则需要设置训练集的百分比,类型为0-100之间的任意整数,需要保证与 val_percent 的值之和为100;

例如,您想重新划分数据集为 训练集占比90%、验证集占比10%,则需将配置文件修改为:

......
CheckDataset:
  ......
  split:
    enable: True
    train_percent: 90
    val_percent: 10
  ......

随后执行命令:

python main.py -c paddlex/configs/modules/textline_orientation/PP-LCNet_x0_25_textline_ori.yaml \
    -o Global.mode=check_dataset \
    -o Global.dataset_dir=./dataset/textline_orientation_example_data

数据划分执行之后,原有标注文件会被在原路径下重命名为 xxx.bak

以上参数同样支持通过追加命令行参数的方式进行设置:

python main.py -c paddlex/configs/modules/textline_orientation/PP-LCNet_x0_25_textline_ori.yaml \
    -o Global.mode=check_dataset \
    -o Global.dataset_dir=./dataset/textline_orientation_example_data \
    -o CheckDataset.split.enable=True \
    -o CheckDataset.split.train_percent=90 \
    -o CheckDataset.split.val_percent=10

4.2 模型训练

一条命令即可完成模型的训练,此处以文本行方向分类模型(PP-LCNet_x1_0_textline_ori)的训练为例:

python main.py -c paddlex/configs/modules/textline_orientation/PP-LCNet_x0_25_textline_ori.yaml \
    -o Global.mode=train \
    -o Global.dataset_dir=./dataset/textline_orientation_example_data
需要如下几步:

  • 指定模型的.yaml 配置文件路径(此处为PP-LCNet_x0_25_textline_ori.yaml,训练其他模型时,需要的指定相应的配置文件,模型和配置的文件的对应关系,可以查阅PaddleX模型列表(CPU/GPU)
  • 指定模式为模型训练:-o Global.mode=train
  • 指定训练数据集路径:-o Global.dataset_dir 其他相关参数均可通过修改.yaml配置文件中的GlobalTrain下的字段来进行设置,也可以通过在命令行中追加参数来进行调整。如指定前 2 卡 gpu 训练:-o Global.device=gpu:0,1;设置训练轮次数为 10:-o Train.epochs_iters=10。更多可修改的参数及其详细解释,可以查阅模型对应任务模块的配置文件说明PaddleX通用模型配置文件参数说明
👉 更多说明(点击展开)
  • 模型训练过程中,PaddleX 会自动保存模型权重文件,默认为output,如需指定保存路径,可通过配置文件中 -o Global.output 字段进行设置。
  • PaddleX 对您屏蔽了动态图权重和静态图权重的概念。在模型训练的过程中,会同时产出动态图和静态图的权重,在模型推理时,默认选择静态图权重推理。
  • 在完成模型训练后,所有产出保存在指定的输出目录(默认为./output/)下,通常有以下产出:

  • train_result.json:训练结果记录文件,记录了训练任务是否正常完成,以及产出的权重指标、相关文件路径等;

  • train.log:训练日志文件,记录了训练过程中的模型指标变化、loss 变化等;
  • config.yaml:训练配置文件,记录了本次训练的超参数的配置;
  • .pdparams.pdema.pdopt.pdstate.pdiparams.pdmodel:模型权重相关文件,包括网络参数、优化器、EMA、静态图网络参数、静态图网络结构等;

4.3 模型评估

在完成模型训练后,可以对指定的模型权重文件在验证集上进行评估,验证模型精度。使用 PaddleX 进行模型评估,一条命令即可完成模型的评估:

python main.py -c paddlex/configs/modules/textline_orientation/PP-LCNet_x0_25_textline_ori.yaml \
    -o Global.mode=evaluate \
    -o Global.dataset_dir=./dataset/textline_orientation_example_data
与模型训练类似,需要如下几步:

  • 指定模型的.yaml 配置文件路径(此处为PP-LCNet_x0_25_textline_ori.yaml
  • 指定模式为模型评估:-o Global.mode=evaluate
  • 指定验证数据集路径:-o Global.dataset_dir 其他相关参数均可通过修改.yaml配置文件中的GlobalEvaluate下的字段来进行设置,详细请参考PaddleX通用模型配置文件参数说明
👉 更多说明(点击展开)

在模型评估时,需要指定模型权重文件路径,每个配置文件中都内置了默认的权重保存路径,如需要改变,只需要通过追加命令行参数的形式进行设置即可,如-o Evaluate.weight_path=``./output/best_model/best_model.pdparams

在完成模型评估后,通常有以下产出:

在完成模型评估后,会产出evaluate_result.json,其记录了评估的结果,具体来说,记录了评估任务是否正常完成,以及模型的评估指标,包含 Top1 Acc。

4.4 模型推理和模型集成

在完成模型的训练和评估后,即可使用训练好的模型权重进行推理预测或者进行Python集成。

4.4.1 模型推理

通过命令行的方式进行推理预测,只需如下一条命令。运行以下代码前,请您下载示例图片到本地。

python main.py -c paddlex/configs/modules/textline_orientation/PP-LCNet_x0_25_textline_ori.yaml \
    -o Global.mode=predict \
    -o Predict.model_dir="./output/best_model/inference" \
    -o Predict.input="textline_rot180_demo.jpg"
与模型训练和评估类似,需要如下几步:

  • 指定模型的.yaml 配置文件路径(此处为PP-LCNet_x0_25_textline_ori.yaml
  • 指定模式为模型推理预测:-o Global.mode=predict
  • 指定模型权重路径:-o Predict.model_dir=``"./output/best_model/inference"
  • 指定输入数据路径:-o Predict.input="..." 其他相关参数均可通过修改.yaml配置文件中的GlobalPredict下的字段来进行设置,详细请参考PaddleX通用模型配置文件参数说明

4.4.2 模型集成

模型可以直接集成到PaddleX产线中,也可以直接集成到您自己的项目中。

1.产线集成

文本行方向分类模块可以集成的PaddleX产线有通用OCR产线通用版面解析产线通用版面解析v2产线文档场景信息抽取v3产线(PP-ChatOCRv3-doc),只需要替换模型路径即可完成文本行方向分类模块的模型更新。

2.模块集成

您产出的权重可以直接集成到文本行方向分类模块中,可以参考快速集成的 Python 示例代码,只需要将模型替换为你训练的到的模型路径即可。

评论