跳转至

印章文本检测模块使用教程

一、概述

印章文本检测模块通常会输出文本区域的多点边界框(Bounding Boxes),这些边界框将作为输入传递给弯曲矫正和文本检测模块进行后续处理,识别出印章的文字内容。印章文本的识别是文档处理的一部分,在很多场景都有用途,例如合同比对,出入库审核以及发票报销审核等场景。印章文本检测模块是OCR(光学字符识别)中的子任务,负责在图像中定位和标记出包含印章文本的区域。该模块的性能直接影响到整个印章文本OCR系统的准确性和效率。

二、支持模型列表

模型模型下载链接 检测Hmean(%) GPU推理耗时(ms)
[常规模式 / 高性能模式]
CPU推理耗时(ms)
[常规模式 / 高性能模式]
模型存储大小(M) 介绍
PP-OCRv4_server_seal_det推理模型/训练模型 98.40 74.75 / 67.72 382.55 / 382.55 109 PP-OCRv4的服务端印章文本检测模型,精度更高,适合在较好的服务器上部署
PP-OCRv4_mobile_seal_det推理模型/训练模型 96.36 7.82 / 3.09 48.28 / 23.97 4.6 PP-OCRv4的移动端印章文本检测模型,效率更高,适合在端侧部署

测试环境说明:

  • 性能测试环境
    • 测试数据集:自建的内部数据集,包含500张圆形印章图像。
    • 硬件配置:
      • GPU:NVIDIA Tesla T4
      • CPU:Intel Xeon Gold 6271C @ 2.60GHz
      • 其他环境:Ubuntu 20.04 / cuDNN 8.6 / TensorRT 8.5.2.2
  • 推理模式说明
模式 GPU配置 CPU配置 加速技术组合
常规模式 FP32精度 / 无TRT加速 FP32精度 / 8线程 PaddleInference
高性能模式 选择先验精度类型和加速策略的最优组合 FP32精度 / 8线程 选择先验最优后端(Paddle/OpenVINO/TRT等)

三、快速开始

❗ 在快速开始前,请先安装 PaddleOCR 的 wheel 包,详细请参考 安装教程

使用一行命令即可快速体验:

paddleocr seal_text_detection -i https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/seal_text_det.png

您也可以将印章文本检测的模块中的模型推理集成到您的项目中。运行以下代码前,请您下载示例图片到本地。

from paddleocr import SealTextDetection
model = SealTextDetection(model_name="PP-OCRv4_server_seal_det")
output = model.predict("seal_text_det.png", batch_size=1)
for res in output:
    res.print()
    res.save_to_img(save_path="./output/")
    res.save_to_json(save_path="./output/res.json")

运行后,得到的结果为:

{'res': {'input_path': 'seal_text_det.png', 'page_index': None, 'dt_polys': [array([[463, 477],
       ...,
       [428, 505]]), array([[297, 444],
       ...,
       [230, 443]]), array([[457, 346],
       ...,
       [267, 345]]), array([[325,  38],
       ...,
       [322,  37]])], 'dt_scores': [0.9912680344777314, 0.9906849624837963, 0.9847219455533163, 0.9914791724153904]}}

运行结果参数含义如下: - input_path:表示输入待预测图像的路径 - dt_polys:表示预测的文本检测框,其中每个文本检测框包含一个多边形的多个顶点。其中每个顶点都是一个列表,分别表示该顶点的x坐标和y坐标 - dt_scores:表示预测的文本检测框的置信度

可视化图片如下:

相关方法、参数等说明如下:

  • SealTextDetection实例化文本检测模型(此处以PP-OCRv4_server_seal_det为例),具体说明如下:
参数 参数说明 参数类型 可选项 默认值
model_name 模型名称 str 所有支持的印章文本检测模型名称
model_dir 模型存储路径 str
device 模型推理设备 str 支持指定GPU具体卡号,如“gpu:0”,其他硬件具体卡号,如“npu:0”,CPU如“cpu”。 gpu:0
limit_side_len 检测的图像边长限制 int/None
  • int: 大于0的任意整数
  • None: 如果设置为None, 将使用默认值:736
None
limit_type 检测的图像边长限制,检测的边长限制类型 str/None
  • str: 支持min和max. min表示保证图像最短边不小于det_limit_side_len, max: 表示保证图像最长边不大于limit_side_len
  • None: 如果设置为None, 将使用默认值:“min”
None
thresh 输出的概率图中,得分大于该阈值的像素点才会被认为是文字像素点 float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将使用默认值:0.2
None
box_thresh 检测结果边框内,所有像素点的平均得分大于该阈值时,该结果会被认为是文字区域 float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将使用默认值:0.6
None
unclip_ratio Vatti clipping算法的扩张系数,使用该方法对文字区域进行扩张 float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将使用默认值:0.5
None
use_dilation 是否对分割结果进行膨胀 bool/None True/False/None None
use_hpip 是否启用高性能推理插件 bool False
hpi_config 高性能推理配置 dict | None None
  • 其中,model_name 必须指定,指定 model_name 后,默认使用内置的模型参数,在此基础上,指定 model_dir 时,使用用户自定义的模型。

  • 调用印章文本检测模型的 predict() 方法进行推理预测,该方法会返回一个结果列表。另外,本模块还提供了 predict_iter() 方法。两者在参数接受和结果返回方面是完全一致的,区别在于 predict_iter() 返回的是一个 generator,能够逐步处理和获取预测结果,适合处理大型数据集或希望节省内存的场景。可以根据实际需求选择使用这两种方法中的任意一种。predict() 方法参数有 inputbatch_sizelimit_side_lenlimit_typethreshbox_threshmax_candidatesunclip_ratiouse_dilation,具体说明如下:

参数 参数说明 参数类型 可选项 默认值
input 待预测数据,支持多种输入类型 Python Var/str/dict/list
  • Python变量,如numpy.ndarray表示的图像数据
  • 文件路径,如图像文件的本地路径:/root/data/img.jpg
  • URL链接,如图像文件的网络URL:示例
  • 本地目录,该目录下需包含待预测数据文件,如本地路径:/root/data/
  • 列表,列表元素需为上述类型数据,如[numpy.ndarray, numpy.ndarray]["/root/data/img1.jpg", "/root/data/img2.jpg"]["/root/data1", "/root/data2"]
batch_size 批大小 int 大于0的任意整数 1
limit_side_len 检测的图像边长限制 int/None
  • int: 大于0的任意整数
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
limit_type 检测的图像边长限制,检测的边长限制类型 str/None
  • str: 支持min和max. min表示保证图像最短边不小于det_limit_side_len, max: 表示保证图像最长边不大于limit_side_len
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
thresh 输出的概率图中,得分大于该阈值的像素点才会被认为是文字像素点 float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
box_thresh 检测结果边框内,所有像素点的平均得分大于该阈值时,该结果会被认为是文字区域 float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
max_candidates 输出的最大文本框数量 int/None
  • int: 大于0的任意整数
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
unclip_ratio Vatti clipping算法的扩张系数,使用该方法对文字区域进行扩张 float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
use_dilation 是否对分割结果进行膨胀 bool/None True/False/None None
  • 对预测结果进行处理,每个样本的预测结果均为对应的Result对象,且支持打印、保存为图片、保存为json文件的操作:
方法 方法说明 参数 参数类型 参数说明 默认值
print() 打印结果到终端 format_json bool 是否对输出内容进行使用 JSON 缩进格式化 True
indent int 指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_jsonTrue 时有效 4
ensure_ascii bool 控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_jsonTrue时有效 False
save_to_json() 将结果保存为json格式的文件 save_path str 保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致
indent int 指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_jsonTrue 时有效 4
ensure_ascii bool 控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_jsonTrue时有效 False
save_to_img() 将结果保存为图像格式的文件 save_path str 保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致
  • 此外,也支持通过属性获取带结果的可视化图像和预测结果,具体如下:
属性 属性说明
json 获取预测的json格式的结果
img 获取格式为dict的可视化图像

四、二次开发

如果以上模型在您的场景上效果仍然不理想,您可以尝试以下步骤进行二次开发,此处以训练 PP-OCRv4_server_seal_det 举例,其他模型替换对应配置文件即可。首先,您需要准备文本检测的数据集,可以参考印章文本检测 Demo 数据的格式准备,准备好后,即可按照以下步骤进行模型训练和导出,导出后,可以将模型快速集成到上述 API 中。此处以印章文本检测 Demo 数据示例。在训练模型之前,请确保已经按照安装文档安装了 PaddleOCR 所需要的依赖。

4.1 数据集、预训练模型准备

4.1.1 准备数据集

# 下载示例数据集
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/data/ocr_curve_det_dataset_examples.tar -P ./dataset
tar -xf ./dataset/ocr_curve_det_dataset_examples.tar -C ./dataset/

4.1.2 下载预训练模型

# 下载 PP-OCRv4_server_seal_det 预训练模型
wget https://paddle-model-ecology.bj.bcebos.com/paddlex/official_pretrained_model/PP-OCRv4_server_seal_det_pretrained.pdparams

4.2 模型训练

PaddleOCR 对代码进行了模块化,训练 PP-OCRv4_server_seal_det 模型时需要使用 PP-OCRv4_server_seal_det配置文件

训练命令如下:

#单卡训练 (默认训练方式)
python3 tools/train.py -c configs/det/PP-OCRv4/PP-OCRv4_server_seal_det.yml \
   -o Global.pretrained_model=./PP-OCRv4_server_seal_det_pretrained.pdparams

#多卡训练,通过--gpus参数指定卡号
python3 -m paddle.distributed.launch --gpus '0,1,2,3'  tools/train.py -c configs/det/PP-OCRv4/PP-OCRv4_server_seal_det.yml \
        -o Global.pretrained_model=./PP-OCRv4_server_seal_det_pretrained.pdparams

4.3 模型评估

您可以评估已经训练好的权重,如,output/xxx/xxx.pdparams,使用如下命令进行评估:

# 注意将pretrained_model的路径设置为本地路径。若使用自行训练保存的模型,请注意修改路径和文件名为{path/to/weights}/{model_name}。
 # demo 测试集评估
 python3 tools/eval.py -c configs/det/PP-OCRv4/PP-OCRv4_server_seal_det.yml -o \
 Global.pretrained_model=output/xxx/xxx.pdparams

4.4 模型导出

 python3 tools/export_model.py -c configs/det/PP-OCRv4/PP-OCRv4_server_seal_det.yml -o \
 Global.pretrained_model=output/xxx/xxx.pdparams \
 save_inference_dir="./PP-OCRv4_server_seal_det_infer/"

导出模型后,静态图模型会存放于当前目录的./PP-OCRv4_server_seal_det_infer/中,在该目录下,您将看到如下文件:

./PP-OCRv4_server_seal_det_infer/
├── inference.json
├── inference.pdiparams
├── inference.yml
至此,二次开发完成,该静态图模型可以直接集成到 PaddleOCR 的 API 中。

五、FAQ

评论