服务化部署¶
服务化部署是实际生产环境中常见的一种部署形式。通过将推理功能封装为服务,客户端可以通过网络请求来访问这些服务,以获取推理结果。PaddleOCR 推荐用户使用 PaddleX 进行服务化部署。请阅读 PaddleOCR 与 PaddleX 的区别与联系 了解 PaddleOCR 与 PaddleX 的关系。
PaddleX 提供以下服务化部署方案:
- 基础服务化部署:简单易用的服务化部署方案,开发成本低。
- 高稳定性服务化部署:基于 NVIDIA Triton Inference Server 打造。与基础服务化部署相比,该方案提供更高的稳定性,并允许用户调整配置以优化性能。
建议首先使用基础服务化部署方案进行快速验证,然后根据实际需要,评估是否尝试更复杂的方案。
1. 基础服务化部署¶
1.1 安装依赖¶
执行如下命令,通过 PaddleX CLI 安装 PaddleX 服务化部署插件:
1.2 运行服务器¶
通过 PaddleX CLI 运行服务器:
以通用 OCR 产线为例:
可以看到类似以下展示的信息:
INFO: Started server process [63108]
INFO: Waiting for application startup.
INFO: Application startup complete.
INFO: Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)
如需调整配置(如模型路径、batch size、部署设备等),可指定 --pipeline
为自定义配置文件。请参考 PaddleOCR 与 PaddleX 了解 PaddleOCR 产线与 PaddleX 产线注册名的对应关系,以及 PaddleX 产线配置文件的获取与修改方式。
与服务化部署相关的命令行选项如下:
名称 | 说明 |
---|---|
--pipeline |
PaddleX 产线注册名或产线配置文件路径。 |
--device |
产线部署设备。默认为 cpu (如 GPU 不可用)或 gpu (如 GPU 可用)。 |
--host |
服务器绑定的主机名或 IP 地址。默认为 0.0.0.0 。 |
--port |
服务器监听的端口号。默认为 8080 。 |
--use_hpip |
如果指定,则使用高性能推理。 |
--hpi_config |
高性能推理配置。请参考 PaddleX 高性能推理指南 了解更多信息。 |
1.3 调用服务¶
PaddleOCR 产线使用教程中的 “开发集成/部署” 部分提供了服务的 API 参考与多语言调用示例。
2. 高稳定性服务化部署¶
请参考 PaddleX 服务化部署指南。在 使用 PaddleX 产线配置文件 中,可以了解关于 PaddleX 产线配置文件的更多信息。
需要说明的是,由于缺乏细粒度优化等原因,当前 PaddleOCR 提供的高稳定性服务化部署方案在性能上可能不及 2.x 版本基于 PaddleServing 的方案;但该新方案已对飞桨 3.0 框架提供了全面支持,我们也将持续优化,后续考虑推出性能更优的部署方案。