服务器端C++预测¶
本章节介绍PaddleOCR 模型的C++部署方法。C++在性能计算上优于Python,因此,在大多数CPU、GPU部署场景,多采用C++的部署方式,本节将介绍如何在Linux\Windows (CPU\GPU)环境下配置C++环境并完成PaddleOCR模型部署。
1. 准备环境¶
1.1 运行准备¶
- Linux环境,推荐使用docker。
-
Windows环境。
-
该文档主要介绍基于Linux环境的PaddleOCR C++预测流程,如果需要在Windows下基于预测库进行C++预测,具体编译方法请参考Windows下编译教程
1.2 编译opencv库¶
- 首先需要从opencv官网上下载在Linux环境下源码编译的包,以opencv3.4.7为例,下载命令如下:
最终可以在当前目录下看到opencv-3.4.7/
的文件夹。
- 编译opencv,设置opencv源码路径(
root_path
)以及安装路径(install_path
)。进入opencv源码路径下,按照下面的方式进行编译。
也可以直接修改tools/build_opencv.sh
的内容,然后直接运行下面的命令进行编译。
其中root_path
为下载的opencv源码路径,install_path
为opencv的安装路径,make install
完成之后,会在该文件夹下生成opencv头文件和库文件,用于后面的OCR代码编译。
最终在安装路径下的文件结构如下所示。
1.3 下载或者编译Paddle预测库¶
可以选择直接下载安装或者从源码编译,下文分别进行具体说明。
1.3.1 直接下载安装¶
Paddle预测库官网 上提供了不同cuda版本的Linux预测库,可以在官网查看并选择合适的预测库版本(建议选择paddle版本>=2.0.1版本的预测库 )。
下载之后解压:
最终会在当前的文件夹中生成paddle_inference/
的子文件夹。
1.3.2 预测库源码编译¶
如果希望获取最新预测库特性,可以从github上克隆最新Paddle代码进行编译,生成最新的预测库。
- 使用git获取代码:
- 进入Paddle目录,进行编译:
更多编译参数选项介绍可以参考Paddle预测库编译文档。
- 编译完成之后,可以在
build/paddle_inference_install_dir/
文件下看到生成了以下文件及文件夹。
其中paddle
就是C++预测所需的Paddle库,version.txt
中包含当前预测库的版本信息。
2. 开始运行¶
2.1 准备模型¶
直接下载PaddleOCR提供的推理模型,或者参考模型预测章节,将训练好的模型导出为推理模型。模型导出之后,假设放在inference
目录下,则目录结构如下:
2.2 编译PaddleOCR C++预测demo¶
编译命令如下,其中Paddle C++预测库、opencv等其他依赖库的地址需要换成自己机器上的实际地址。
具体的,需要修改tools/build.sh
中环境路径,相关内容如下:
其中,OPENCV_DIR
为opencv编译安装的地址;LIB_DIR
为下载(paddle_inference
文件夹)或者编译生成的Paddle预测库地址(build/paddle_inference_install_dir
文件夹);CUDA_LIB_DIR
为cuda库文件地址,在docker中为/usr/local/cuda/lib64
;CUDNN_LIB_DIR
为cudnn库文件地址,在docker中为/usr/lib/x86_64-linux-gnu/
。注意:以上路径都写绝对路径,不要写相对路径。
编译完成之后,会在build
文件夹下生成一个名为ppocr
的可执行文件。
2.3 运行demo¶
本demo支持系统串联调用,也支持单个功能的调用,如,只使用检测或识别功能。
注意 ppocr默认使用PP-OCRv3
模型,识别模型使用的输入shape为3,48,320
, 如需使用旧版本的PP-OCR模型,则需要设置参数--rec_img_h=32
。
运行方式:
具体命令如下:
1. 检测+分类+识别¶
2. 检测+识别¶
3. 检测¶
4. 分类+识别¶
5. 识别¶
6. 分类¶
7. 版面分析+表格识别¶
8. 版面分析¶
9. 表格识别¶
更多支持的可调节参数解释如下:
- 通用参数
参数名称 | 类型 | 默认参数 | 意义 |
---|---|---|---|
use_gpu | bool | false | 是否使用GPU |
gpu_id | int | 0 | GPU id,使用GPU时有效 |
gpu_mem | int | 4000 | 申请的GPU内存 |
cpu_math_library_num_threads | int | 10 | CPU预测时的线程数,在机器核数充足的情况下,该值越大,预测速度越快 |
enable_mkldnn | bool | true | 是否使用mkldnn库 |
output | str | ./output | 可视化结果保存的路径 |
- 前向相关
参数名称 | 类型 | 默认参数 | 意义 |
---|---|---|---|
det | bool | true | 前向是否执行文字检测 |
rec | bool | true | 前向是否执行文字识别 |
cls | bool | false | 前向是否执行文字方向分类 |
- 检测模型相关
参数名称 | 类型 | 默认参数 | 意义 |
---|---|---|---|
det_model_dir | string | - | 检测模型inference model地址 |
max_side_len | int | 960 | 输入图像长宽大于960时,等比例缩放图像,使得图像最长边为960 |
det_db_thresh | float | 0.3 | 用于过滤DB预测的二值化图像,设置为0.-0.3对结果影响不明显 |
det_db_box_thresh | float | 0.5 | DB后处理过滤box的阈值,如果检测存在漏框情况,可酌情减小 |
det_db_unclip_ratio | float | 1.6 | 表示文本框的紧致程度,越小则文本框更靠近文本 |
det_db_score_mode | string | slow | slow:使用多边形框计算bbox score,fast:使用矩形框计算。矩形框计算速度更快,多边形框对弯曲文本区域计算更准确。 |
visualize | bool | true | 是否对结果进行可视化,为1时,预测结果会保存在output 字段指定的文件夹下和输入图像同名的图像上。 |
- 方向分类器相关
参数名称 | 类型 | 默认参数 | 意义 |
---|---|---|---|
use_angle_cls | bool | false | 是否使用方向分类器 |
cls_model_dir | string | - | 方向分类器inference model地址 |
cls_thresh | float | 0.9 | 方向分类器的得分阈值 |
cls_batch_num | int | 1 | 方向分类器batchsize |
- 文字识别模型相关
参数名称 | 类型 | 默认参数 | 意义 |
---|---|---|---|
rec_model_dir | string | - | 文字识别模型inference model地址 |
rec_char_dict_path | string | ../../ppocr/utils/ppocr_keys_v1.txt | 字典文件 |
rec_batch_num | int | 6 | 文字识别模型batchsize |
rec_img_h | int | 48 | 文字识别模型输入图像高度 |
rec_img_w | int | 320 | 文字识别模型输入图像宽度 |
- 版面分析模型相关
参数名称 | 类型 | 默认参数 | 意义 |
---|---|---|---|
layout_model_dir | string | - | 版面分析模型inference model地址 |
layout_dict_path | string | ../../ppocr/utils/dict/layout_dict/layout_publaynet_dict.txt | 字典文件 |
layout_score_threshold | float | 0.5 | 检测框的分数阈值 |
layout_nms_threshold | float | 0.5 | nms的阈值 |
- 表格识别模型相关
参数名称 | 类型 | 默认参数 | 意义 | ||
---|---|---|---|---|---|
table_model_dir | string | - | 表格识别模型inference model地址 | ||
table_char_dict_path | string | ../../ppocr/utils/dict/table_structure_dict_ch.txt | 字典文件 | ||
table_max_len | int | 488 | 表格识别模型输入图像长边大小,最终网络输入图像大小为(table_max_len,table_max_len) | ||
merge_no_span_structure | bool | true | 是否合并 | 和 | 为
- PaddleOCR也支持多语言的预测,更多支持的语言和模型可以参考识别文档中的多语言字典与模型部分,如果希望进行多语言预测,只需将修改
rec_char_dict_path
(字典文件路径)以及rec_model_dir
(inference模型路径)字段即可。
最终屏幕上会输出检测结果如下:
- ocr
- layout+table
3. FAQ¶
- 遇到报错
unable to access 'https://github.com/LDOUBLEV/AutoLog.git/': gnutls_handshake() failed: The TLS connection was non-properly terminated.
, 将deploy/cpp_infer/external-cmake/auto-log.cmake
中的github地址改为 https://gitee.com/Double_V/AutoLog 地址即可。