PaddleX本地安装教程¶
❗安装 PaddleX 前请先确保您有基础的 Python 运行环境(注:当前支持Python 3.8 ~ Python 3.10下运行,更多Python版本适配中)。
1. 快速安装¶
欢迎您使用飞桨低代码开发工具PaddleX,在我们正式开始本地安装之前,请首先明确您的开发需求,并根据您的需求选择合适的安装模式。 PaddleX为您提供了两种安装模式:Wheel包安装和插件安装,下面分别对其应用场景进行介绍:
1.1 Wheel包安装模式¶
若您使用PaddleX的应用场景为模型推理与集成 ,那么推荐您使用更便捷、更轻量的Wheel包安装模式。
快速安装轻量级的Wheel包之后,您即可基于PaddleX支持的所有模型进行推理,并能直接集成进您的项目中。
参考飞桨PaddlePaddle本地安装教程安装飞桨后,您可直接执行如下指令快速安装PaddleX的Wheel包:
❗ 注:请务必保证 PaddlePaddle 安装成功,安装成功后,方可进行下一步。
1.2 插件安装模式¶
若您使用PaddleX的应用场景为二次开发 (例如重新训练模型、微调模型、自定义模型结构、自定义推理代码等),那么推荐您使用功能更加强大的插件安装模式。
安装您需要的PaddleX插件之后,您不仅同样能够对插件支持的模型进行推理与集成,还可以对其进行模型训练等二次开发更高级的操作。
PaddleX支持的插件如下,请您根据开发需求,确定所需的一个或多个插件名称:
👉 插件和产线对应关系(点击展开)
模型产线 | 模块 | 对应插件 |
---|---|---|
通用图像分类 | 图像分类 | PaddleClas |
通用目标检测 | 目标检测 | PaddleDetection |
通用语义分割 | 语义分割 | PaddleSeg |
通用实例分割 | 实例分割 | PaddleDetection |
通用OCR | 文本检测 文本识别 |
PaddleOCR |
通用表格识别 | 版面区域检测 表格结构识别 文本检测 文本识别 |
PaddleOCR PaddleDetection |
文档场景信息抽取v3 | 表格结构识别 版面区域检测 文本检测 文本识别 印章文本检测 文本图像矫正 文档图像方向分类 |
PaddleOCR PaddleDetection PaddleClas |
时序预测 | 时序预测模块 | PaddleTS |
时序异常检测 | 时序异常检测模块 | PaddleTS |
时序分类 | 时序分类模块 | PaddleTS |
通用多标签分类 | 图像多标签分类 | PaddleClas |
小目标检测 | 小目标检测 | PaddleDetection |
图像异常检测 | 无监督异常检测 | PaddleSeg |
若您需要安装的插件为PaddleXXX
,在参考飞桨PaddlePaddle本地安装教程安装飞桨后,您可以直接执行如下指令快速安装PaddleX的对应插件:
git clone https://github.com/PaddlePaddle/PaddleX.git
cd PaddleX
pip install -e .
paddlex --install PaddleXXX # 例如PaddleOCR
❗ 注:采用这种安装方式后,是可编辑模式安装,当前项目的代码更改,都会直接作用到已经安装的 PaddleX Wheel 包。
如果上述安装方式可以安装成功,则可以跳过接下来的步骤。
若您使用Linux操作系统,请参考2. Linux安装PaddleX详细教程。其他操作系统的安装方式,敬请期待。
2. Linux安装PaddeX详细教程¶
使用Linux安装PaddleX时,我们强烈推荐使用PaddleX官方Docker镜像安装,当然也可使用其他自定义方式安装。
当您使用官方 Docker 镜像安装时,其中已经内置了 PaddlePaddle、PaddleX(包括wheel包和所有插件),并配置好了相应的CUDA环境,您获取 Docker 镜像并启动容器即可开始使用。
当您使用自定义方式安装时,需要先安装飞桨 PaddlePaddle 框架,随后获取 PaddleX 源码,最后选择PaddleX的安装模式。
❗ 注:目前 PaddleX 仅支持 11.8 和 12.3 版本的 CUDA,请确保已安装的 Nvidia 驱动支持的上述 CUDA 版本。
2.1 基于Docker获取PaddleX¶
参考下述命令,使用 PaddleX 官方 Docker 镜像,创建一个名为 paddlex
的容器,并将当前工作目录映射到容器内的 /paddle
目录。
若您使用的 Docker 版本 >= 19.03,请执行:
# 对于 CPU 用户
docker run --name paddlex -v $PWD:/paddle --shm-size=8g --network=host -it ccr-2vdh3abv-pub.cnc.bj.baidubce.com/paddlex/paddlex:paddlex3.0.0b2-paddlepaddle3.0.0b2-cpu /bin/bash
# 对于 GPU 用户
# 对于 CUDA11.8 用户
docker run --gpus all --name paddlex -v $PWD:/paddle --shm-size=8g --network=host -it ccr-2vdh3abv-pub.cnc.bj.baidubce.com/paddlex/paddlex:paddlex3.0.0b2-paddlepaddle3.0.0b2-gpu-cuda11.8-cudnn8.6-trt8.5 /bin/bash
# 对于 CUDA12.3 用户
docker run --gpus all --name paddlex -v $PWD:/paddle --shm-size=8g --network=host -it ccr-2vdh3abv-pub.cnc.bj.baidubce.com/paddlex/paddlex:paddlex3.0.0b2-paddlepaddle3.0.0b2-gpu-cuda12.3-cudnn9.0-trt8.6 /bin/bash
- 若您使用的 Docker 版本 <= 19.03 但 >= 17.06,请执行:
点击展开
# 对于 CPU 用户
docker run --name paddlex -v $PWD:/paddle --shm-size=8g --network=host -it ccr-2vdh3abv-pub.cnc.bj.baidubce.com/paddlex/paddlex:paddlex3.0.0b2-paddlepaddle3.0.0b2-cpu /bin/bash
# 对于 GPU 用户
# 对于 CUDA11.8 用户
nvidia-docker run --name paddlex -v $PWD:/paddle --shm-size=8g --network=host -it ccr-2vdh3abv-pub.cnc.bj.baidubce.com/paddlex/paddlex:paddlex3.0.0b2-paddlepaddle3.0.0b2-gpu-cuda11.8-cudnn8.6-trt8.5 /bin/bash
# 对于 CUDA12.3 用户
nvidia-docker run --name paddlex -v $PWD:/paddle --shm-size=8g --network=host -it ccr-2vdh3abv-pub.cnc.bj.baidubce.com/paddlex/paddlex:paddlex3.0.0b2-paddlepaddle3.0.0b2-gpu-cuda12.3-cudnn9.0-trt8.6 /bin/bash
-
若您使用的 Docker 版本 <= 17.06,请升级 Docker 版本。
-
若您想更深入了解 Docker 的原理或使用方式,请参考 Docker官方网站 或 Docker官方教程。
2.2 自定义方式安装PaddleX¶
在安装之前,请确保您已经参考飞桨PaddlePaddle本地安装教程完成飞桨的本地安装。
2.2.1 获取 PaddleX 源码¶
接下来,请使用以下命令从 GitHub 获取 PaddleX 最新源码:
如果访问 GitHub 网速较慢,可以从 Gitee 下载,命令如下:2.2.2 安装PaddleX¶
获取 PaddleX 最新源码之后,您可以选择Wheel包安装模式或插件安装模式。
- 若您选择Wheel包安装模式,请执行以下命令:
cd PaddleX
# 安装 PaddleX whl
# -e:以可编辑模式安装,当前项目的代码更改,都会直接作用到已经安装的 PaddleX Wheel
pip install -e .
# 安装 PaddleX 插件
paddlex --install PaddleXXX
--platform
指定克隆源。
例如,您需要使用 gitee.com 克隆源安装全部PaddleX插件,只需执行如下命令:
安装完成后,将会有如下提示: 更多硬件环境的PaddleX安装请参考PaddleX多硬件使用指南