跳转至

服务化部署

服务化部署是实际生产环境中常见的一种部署形式。通过将推理功能封装为服务,客户端可以通过网络请求来访问这些服务,以获取推理结果。PaddleOCR 推荐用户使用 PaddleX 进行服务化部署。请阅读 PaddleOCR 与 PaddleX 的区别与联系 了解 PaddleOCR 与 PaddleX 的关系。

PaddleX 提供以下服务化部署方案:

  • 基础服务化部署:简单易用的服务化部署方案,开发成本低。
  • 高稳定性服务化部署:基于 NVIDIA Triton Inference Server 打造。与基础服务化部署相比,该方案提供更高的稳定性,并允许用户调整配置以优化性能。

建议首先使用基础服务化部署方案进行快速验证,然后根据实际需要,评估是否尝试更复杂的方案。

1. 基础服务化部署

1.1 安装依赖

执行如下命令,通过 PaddleX CLI 安装 PaddleX 服务化部署插件:

paddlex --install serving

1.2 运行服务器

通过 PaddleX CLI 运行服务器:

paddlex --serve --pipeline {PaddleX 产线注册名或产线配置文件路径} [{其他命令行选项}]

以通用 OCR 产线为例:

paddlex --serve --pipeline OCR

可以看到类似以下展示的信息:

INFO:     Started server process [63108]
INFO:     Waiting for application startup.
INFO:     Application startup complete.
INFO:     Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)

如需调整配置(如模型路径、batch size、部署设备等),可指定 --pipeline 为自定义配置文件。请参考 PaddleOCR 与 PaddleX 了解 PaddleOCR 产线与 PaddleX 产线注册名的对应关系,以及 PaddleX 产线配置文件的获取与修改方式。

与服务化部署相关的命令行选项如下:

名称 说明
--pipeline PaddleX 产线注册名或产线配置文件路径。
--device 产线部署设备。默认为 cpu(如 GPU 不可用)或 gpu(如 GPU 可用)。
--host 服务器绑定的主机名或 IP 地址。默认为 0.0.0.0
--port 服务器监听的端口号。默认为 8080
--use_hpip 如果指定,则使用高性能推理。
--hpi_config 高性能推理配置。请参考 PaddleX 高性能推理指南 了解更多信息。

1.3 调用服务

PaddleOCR 产线使用教程中的 “开发集成/部署” 部分提供了服务的 API 参考与多语言调用示例。

2. 高稳定性服务化部署

请参考 PaddleX 服务化部署指南。在 使用 PaddleX 产线配置文件 中,可以了解关于 PaddleX 产线配置文件的更多信息。

需要说明的是,由于缺乏细粒度优化等原因,当前 PaddleOCR 提供的高稳定性服务化部署方案在性能上可能不及 2.x 版本基于 PaddleServing 的方案;但该新方案已对飞桨 3.0 框架提供了全面支持,我们也将持续优化,后续考虑推出性能更优的部署方案。