跳转至

开发指南

本文档介绍如何基于 PaddleScience 套件进行代码开发并最终贡献到 PaddleScience 套件中。

PaddleScience 相关的论文复现、API 开发任务开始之前需提交 RFC 文档,请参考:PaddleScience RFC Template

1. 准备工作

  1. 在网页上将 PaddleScience fork 到自己的仓库
  2. 克隆自己仓库里的 PaddleScience 到本地,并进入该目录

    git clone -b develop https://github.com/USER_NAME/PaddleScience.git
    cd PaddleScience
    

    上方 clone 命令中的 USER_NAME 字段请填入自己的 github 用户名。

  3. 安装必要的依赖包

    pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
    
  4. 基于当前所在的 develop 分支,新建一个分支(假设新分支名字为 dev_model)

    git checkout -b "dev_model"
    
  5. 添加 PaddleScience 目录到系统环境变量 PYTHONPATH

    export PYTHONPATH=$PWD:$PYTHONPATH
    
  6. 执行以下代码,验证安装的 PaddleScience 基础功能是否正常

    python -c "import ppsci; ppsci.run_check()"
    

    如果出现 PaddleScience is installed successfully.✨ 🍰 ✨,则说明安装验证成功。

2. 编写代码

完成上述准备工作后,就可以基于 PaddleScience 开始开发自己的案例或者功能了。

假设新建的案例代码文件路径为:PaddleScience/examples/demo/demo.py,接下来开始详细介绍这一流程

2.1 导入必要的包

PaddleScience 所提供的 API 全部在 ppsci.* 模块下,因此在 demo.py 的开头首先需要导入 ppsci 这个顶层模块,接着导入日志打印模块 logger,方便打印日志时自动记录日志到本地文件中,最后再根据您自己的需要,导入其他必要的模块。

examples/demo/demo.py
import ppsci
from ppsci.utils import logger

# 导入其他必要的模块
# import ...

2.2 设置运行环境

在运行 demo.py 之前,需要进行一些必要的运行环境设置,如固定随机种子(保证实验可复现性)、设置输出目录并初始化日志打印模块(保存重要实验数据)。

examples/demo/demo.py
if __name__ == "__main__":
    # set random seed for reproducibility
    ppsci.utils.misc.set_random_seed(42)
    # set output directory
    OUTPUT_DIR = "./output_example"
    # initialize logger
    logger.init_logger("ppsci", f"{OUTPUT_DIR}/train.log", "info")

完成上述步骤之后,demo.py 已经搭好了必要框架。接下来介绍如何基于自己具体的需求,对 ppsci.* 下的其他模块进行开发或者复用,以最终在 demo.py 中使用。

2.3 构建模型

2.3.1 构建已有模型

PaddleScience 内置了一些常见的模型,如 MLP 模型,如果您想使用这些内置的模型,可以直接调用 ppsci.arch.* 下的 API,并填入模型实例化所需的参数,即可快速构建模型。

examples/demo/demo.py
# create a MLP model
model = ppsci.arch.MLP(("x", "y"), ("u", "v", "p"), 9, 50, "tanh")

上述代码实例化了一个 MLP 全连接模型,其输入数据为两个字段:"x""y",输出数据为三个字段:"u""v""w";模型具有 \(9\) 层隐藏层,每层的神经元个数为 \(50\) 个,每层隐藏层使用的激活函数均为 \(\tanh\) 双曲正切函数。

2.3.2 构建新的模型

当 PaddleScience 内置的模型无法满足您的需求时,您就可以通过新增模型文件并编写模型代码的方式,使用您自定义的模型,步骤如下:

  1. ppsci/arch/ 文件夹下新建模型结构文件,以 new_model.py 为例。
  2. new_model.py 文件中导入 PaddleScience 的模型基类所在的模块 base,并从 base.Arch 派生出您想创建的新模型类(以 Class NewModel 为例)。

    ppsci/arch/new_model.py
    from ppsci.arch import base
    
    class NewModel(base.Arch):
        def __init__(self, ...):
            ...
            # initialization
    
        def forward(self, ...):
            ...
            # forward
    
  3. 编写 NewModel.__init__ 方法,其被用于模型创建时的初始化操作,包括模型层、参数变量初始化;然后再编写 NewModel.forward 方法,其定义了模型从接受输入、计算输出这一过程。以 MLP.__init__MLP.forward 为例,如下所示。

    class MLP(base.Arch):
        """Multi layer perceptron network.
    
        Args:
            input_keys (Tuple[str, ...]): Name of input keys, such as ("x", "y", "z").
            output_keys (Tuple[str, ...]): Name of output keys, such as ("u", "v", "w").
            num_layers (int): Number of hidden layers.
            hidden_size (Union[int, Tuple[int, ...]]): Number of hidden size.
                An integer for all layers, or list of integer specify each layer's size.
            activation (str, optional): Name of activation function. Defaults to "tanh".
            skip_connection (bool, optional): Whether to use skip connection. Defaults to False.
            weight_norm (bool, optional): Whether to apply weight norm on parameter(s). Defaults to False.
            input_dim (Optional[int]): Number of input's dimension. Defaults to None.
            output_dim (Optional[int]): Number of output's dimension. Defaults to None.
            periods (Optional[Dict[int, Tuple[float, bool]]]): Period of each input key,
                input in given channel will be period embeded if specified, each tuple of
                periods list is [period, trainable]. Defaults to None.
            fourier (Optional[Dict[str, Union[float, int]]]): Random fourier feature embedding,
                e.g. {'dim': 256, 'scale': 1.0}. Defaults to None.
            random_weight (Optional[Dict[str, float]]): Mean and std of random weight
                factorization layer, e.g. {"mean": 0.5, "std: 0.1"}. Defaults to None.
    
        Examples:
            >>> import paddle
            >>> import ppsci
            >>> model = ppsci.arch.MLP(
            ...     input_keys=("x", "y"),
            ...     output_keys=("u", "v"),
            ...     num_layers=5,
            ...     hidden_size=128
            ... )
            >>> input_dict = {"x": paddle.rand([64, 1]),
            ...               "y": paddle.rand([64, 1])}
            >>> output_dict = model(input_dict)
            >>> print(output_dict["u"].shape)
            [64, 1]
            >>> print(output_dict["v"].shape)
            [64, 1]
        """
    
        def __init__(
            self,
            input_keys: Tuple[str, ...],
            output_keys: Tuple[str, ...],
            num_layers: int,
            hidden_size: Union[int, Tuple[int, ...]],
            activation: str = "tanh",
            skip_connection: bool = False,
            weight_norm: bool = False,
            input_dim: Optional[int] = None,
            output_dim: Optional[int] = None,
            periods: Optional[Dict[int, Tuple[float, bool]]] = None,
            fourier: Optional[Dict[str, Union[float, int]]] = None,
            random_weight: Optional[Dict[str, float]] = None,
        ):
            super().__init__()
            self.input_keys = input_keys
            self.output_keys = output_keys
            self.linears = []
            self.acts = []
            self.periods = periods
            self.fourier = fourier
            if periods:
                self.period_emb = PeriodEmbedding(periods)
    
            if isinstance(hidden_size, (tuple, list)):
                if num_layers is not None:
                    raise ValueError(
                        "num_layers should be None when hidden_size is specified"
                    )
            elif isinstance(hidden_size, int):
                if not isinstance(num_layers, int):
                    raise ValueError(
                        "num_layers should be an int when hidden_size is an int"
                    )
                hidden_size = [hidden_size] * num_layers
            else:
                raise ValueError(
                    f"hidden_size should be list of int or int, but got {type(hidden_size)}"
                )
    
            # initialize FC layer(s)
            cur_size = len(self.input_keys) if input_dim is None else input_dim
            if input_dim is None and periods:
                # period embeded channel(s) will be doubled automatically
                # if input_dim is not specified
                cur_size += len(periods)
    
            if fourier:
                self.fourier_emb = FourierEmbedding(
                    cur_size, fourier["dim"], fourier["scale"]
                )
                cur_size = fourier["dim"]
    
            for i, _size in enumerate(hidden_size):
                if weight_norm:
                    self.linears.append(WeightNormLinear(cur_size, _size))
                elif random_weight:
                    self.linears.append(
                        RandomWeightFactorization(
                            cur_size,
                            _size,
                            mean=random_weight["mean"],
                            std=random_weight["std"],
                        )
                    )
                else:
                    self.linears.append(nn.Linear(cur_size, _size))
    
                # initialize activation function
                self.acts.append(
                    act_mod.get_activation(activation)
                    if activation != "stan"
                    else act_mod.get_activation(activation)(_size)
                )
                # special initialization for certain activation
                # TODO: Adapt code below to a more elegant style
                if activation == "siren":
                    if i == 0:
                        act_mod.Siren.init_for_first_layer(self.linears[-1])
                    else:
                        act_mod.Siren.init_for_hidden_layer(self.linears[-1])
    
                cur_size = _size
    
            self.linears = nn.LayerList(self.linears)
            self.acts = nn.LayerList(self.acts)
            if random_weight:
                self.last_fc = RandomWeightFactorization(
                    cur_size,
                    len(self.output_keys) if output_dim is None else output_dim,
                    mean=random_weight["mean"],
                    std=random_weight["std"],
                )
            else:
                self.last_fc = nn.Linear(
                    cur_size,
                    len(self.output_keys) if output_dim is None else output_dim,
                )
    
            self.skip_connection = skip_connection
    
    def forward(self, x):
        if self._input_transform is not None:
            x = self._input_transform(x)
    
        if self.periods:
            x = self.period_emb(x)
    
        y = self.concat_to_tensor(x, self.input_keys, axis=-1)
    
        if self.fourier:
            y = self.fourier_emb(y)
    
        y = self.forward_tensor(y)
        y = self.split_to_dict(y, self.output_keys, axis=-1)
    
        if self._output_transform is not None:
            y = self._output_transform(x, y)
        return y
    
  4. ppsci/arch/__init__.py 中导入编写的新模型类 NewModel,并添加到 __all__

    ppsci/arch/__init__.py
    ...
    ...
    from ppsci.arch.new_model import NewModel
    
    __all__ = [
        ...,
        ...,
        "NewModel",
    ]
    

完成上述新模型代码编写的工作之后,在 demo.py 中,就能通过调用 ppsci.arch.NewModel,实例化刚才编写的模型,如下所示。

examples/demo/demo.py
model = ppsci.arch.NewModel(...)

2.4 构建方程

如果您的案例问题中涉及到方程计算,那么可以选择使用 PaddleScience 内置的方程,或者编写自己的方程。

2.4.1 构建已有方程

PaddleScience 内置了一些常见的方程,如 NavierStokes 方程,如果您想使用这些内置的方程,可以直接 调用 ppsci.equation.* 下的 API,并填入方程实例化所需的参数,即可快速构建方程。

examples/demo/demo.py
# create a Vibration equation
viv_equation = ppsci.equation.Vibration(2, -4, 0)

2.4.2 构建新的方程

当 PaddleScience 内置的方程无法满足您的需求时,您也可以通过新增方程文件并编写方程代码的方式,使用您自定义的方程。

假设需要计算的方程公式如下所示。

\[ \begin{cases} \begin{align} \dfrac{\partial u}{\partial x} + \dfrac{\partial u}{\partial y} &= u + 1, \tag{1} \\ \dfrac{\partial v}{\partial x} + \dfrac{\partial v}{\partial y} &= v. \tag{2} \end{align} \end{cases} \]

其中 \(x\), \(y\) 为模型输入,表示\(x\)\(y\)轴坐标;\(u=u(x,y)\)\(v=v(x,y)\) 是模型输出,表示 \((x,y)\) 处的 \(x\)\(y\) 轴方向速度。

首先我们需要将上述方程进行适当移项,将含有变量、函数的项移动到等式左侧,含有常数的项移动到等式右侧,方便后续转换成程序代码,如下所示。

\[ \begin{cases} \begin{align} \dfrac{\partial u}{\partial x} + \dfrac{\partial u}{\partial y} - u &= 1, \tag{3}\\ \dfrac{\partial v}{\partial x} + \dfrac{\partial v}{\partial y} - v &= 0. \tag{4} \end{align} \end{cases} \]

然后就可以将上述移项后的方程组根据以下步骤转换成对应的程序代码。

  1. ppsci/equation/pde/ 下新建方程文件。如果您的方程并不是 PDE 方程,那么需要新建一个方程类文件夹,比如在 ppsci/equation/ 下新建 ode 文件夹,再将您的方程文件放在 ode 文件夹下。此处以PDE类的方程 new_pde.py 为例。

  2. new_pde.py 文件中导入 PaddleScience 的方程基类所在模块 base,并从 base.PDE 派生 Class NewPDE

    ppsci/equation/pde/new_pde.py
    from ppsci.equation.pde import base
    
    class NewPDE(base.PDE):
    
  3. 编写 __init__ 代码,用于方程创建时的初始化,在其中定义必要的变量和公式计算过程。PaddleScience 支持使用 sympy 符号计算库创建方程和直接使用 python 函数编写方程,两种方式如下所示。

    ppsci/equation/pde/new_pde.py
    from ppsci.equation.pde import base
    
    class NewPDE(base.PDE):
        def __init__(self):
            x, y = self.create_symbols("x y") # 创建自变量 x, y
            u = self.create_function("u", (x, y))  # 创建关于自变量 (x, y) 的函数 u(x,y)
            v = self.create_function("v", (x, y))  # 创建关于自变量 (x, y) 的函数 v(x,y)
    
            expr1 = u.diff(x) + u.diff(y) - u  # 对应等式(3)左侧表达式
            expr2 = v.diff(x) + v.diff(y) - v  # 对应等式(4)左侧表达式
    
            self.add_equation("expr1", expr1)  # 将expr1 的 sympy 表达式对象添加到 NewPDE 对象的公式集合中
            self.add_equation("expr2", expr2)  # 将expr2 的 sympy 表达式对象添加到 NewPDE 对象的公式集合中
    
    ppsci/equation/pde/new_pde.py
    from ppsci.autodiff import jacobian
    
    from ppsci.equation.pde import base
    
    class NewPDE(base.PDE):
        def __init__(self):
            def expr1_compute_func(out):
                x, y = out["x"], out["y"]  # 从 out 数据字典中取出自变量 x, y 的数据值
                u = out["u"]  # 从 out 数据字典中取出因变量 u 的函数值
    
                expr1 = jacobian(u, x) + jacobian(u, y) - u  # 对应等式(3)左侧表达式计算过程
                return expr1  # 返回计算结果值
    
            def expr2_compute_func(out):
                x, y = out["x"], out["y"]  # 从 out 数据字典中取出自变量 x, y 的数据值
                v = out["v"]  # 从 out 数据字典中取出因变量 v 的函数值
    
                expr2 = jacobian(v, x) + jacobian(v, y) - v  # 对应等式(4)左侧表达式计算过程
                return expr2
    
            self.add_equation("expr1", expr1_compute_func)  # 将 expr1 的计算函数添加到 NewPDE 对象的公式集合中
            self.add_equation("expr2", expr2_compute_func)  # 将 expr2 的计算函数添加到 NewPDE 对象的公式集合中
    
  4. ppsci/equation/__init__.py 中导入编写的新方程类,并添加到 __all__

    ppsci/equation/__init__.py
    ...
    ...
    from ppsci.equation.pde.new_pde import NewPDE
    
    __all__ = [
        ...,
        ...,
        "NewPDE",
    ]
    

完成上述新方程代码编写的工作之后,我们就能像 PaddleScience 内置方程一样,以 ppsci.equation.NewPDE 的方式,调用我们编写的新方程类,并用于创建方程实例。

在方程构建完毕后之后,我们需要将所有方程包装为到一个字典中

examples/demo/demo.py
new_pde = ppsci.equation.NewPDE(...)
equation = {..., "newpde": new_pde}

2.5 构建几何模块[可选]

模型训练、验证时所用的输入、标签数据的来源,根据具体案例场景的不同而变化。大部分基于 PINN 的案例,其数据来自几何形状内部、表面采样得到的坐标点、法向量、SDF 值;而基于数据驱动的方法,其输入、标签数据大多数来自于外部文件,或通过 numpy 等第三方库构造的存放在内存中的数据。本章节主要对第一种情况所需的几何模块进行介绍,第二种情况则不一定需要几何模块,其构造方式可以参考 #2.6 构建约束条件

2.5.1 构建已有几何

PaddleScience 内置了几类常用的几何形状,包括简单几何、复杂几何,如下所示。

几何调用方式 含义
ppsci.geometry.Interval 1 维线段几何
ppsci.geometry.Disk 2 维圆面几何
ppsci.geometry.Polygon 2 维多边形几何
ppsci.geometry.Rectangle 2 维矩形几何
ppsci.geometry.Triangle 2 维三角形几何
ppsci.geometry.Cuboid 3 维立方体几何
ppsci.geometry.Sphere 3 维圆球几何
ppsci.geometry.Mesh 3 维 Mesh 几何
ppsci.geometry.PointCloud 点云几何
ppsci.geometry.TimeDomain 1 维时间几何(常用于瞬态问题)
ppsci.geometry.TimeXGeometry 1 + N 维带有时间的几何(常用于瞬态问题)

以计算域为 2 维矩形几何为例,实例化一个 x 轴边长为2,y 轴边长为 1,且左下角为点 (-1,-3) 的矩形几何代码如下:

examples/demo/demo.py
LEN_X, LEN_Y = 2, 1  # 定义矩形边长
rect = ppsci.geometry.Rectangle([-1, -3], [-1 + LEN_X, -3 + LEN_Y])  # 通过左下角、右上角对角线坐标构造矩形

其余的几何体构造方法类似,参考 API 文档的 ppsci.geometry 部分即可。

2.5.2 构建新的几何

下面以构建一个新的几何体 —— 2 维椭圆(无旋转)为例进行介绍。

  1. 首先我们需要在二维几何的代码文件 ppsci/geometry/geometry_2d.py 中新建椭圆类 Ellipse,并制定其直接父类为 geometry.Geometry 几何基类。 然后根据椭圆的代数表示公式:\(\dfrac{x^2}{a^2} + \dfrac{y^2}{b^2} = 1\),可以发现表示一个椭圆需要记录其圆心坐标 \((x_0,y_0)\)\(x\) 轴半径 \(a\)\(y\) 轴半径 \(b\)。因此该椭圆类的代码如下所示。

    ppsci/geometry/geometry_2d.py
    class Ellipse(geometry.Geometry):
        def __init__(self, x0: float, y0: float, a: float, b: float)
            self.center = np.array((x0, y0), dtype=paddle.get_default_dtype())
            self.a = a
            self.b = b
    
  2. 为椭圆类编写必要的基础方法,如下所示。

    • 判断给定点集是否在椭圆内部

      ppsci/geometry/geometry_2d.py
      def is_inside(self, x):
          return ((x / self.center) ** 2).sum(axis=1) < 1
      
    • 判断给定点集是否在椭圆边界上

      ppsci/geometry/geometry_2d.py
      def on_boundary(self, x):
          return np.isclose(((x / self.center) ** 2).sum(axis=1), 1)
      
    • 在椭圆内部点随机采样(此处使用“拒绝采样法”实现)

      ppsci/geometry/geometry_2d.py
      def random_points(self, n, random="pseudo"):
          res_n = n
          result = []
          max_radius = self.center.max()
          while (res_n < n):
              rng = sampler.sample(n, 2, random)
              r, theta = rng[:, 0], 2 * np.pi * rng[:, 1]
              x = np.sqrt(r) * np.cos(theta)
              y = np.sqrt(r) * np.sin(theta)
              candidate = max_radius * np.stack((x, y), axis=1) + self.center
              candidate = candidate[self.is_inside(candidate)]
              if len(candidate) > res_n:
                  candidate = candidate[: res_n]
      
              result.append(candidate)
              res_n -= len(candidate)
          result = np.concatenate(result, axis=0)
          return result
      
    • 在椭圆边界随机采样(此处基于椭圆参数方程实现)

      ppsci/geometry/geometry_2d.py
      def random_boundary_points(self, n, random="pseudo"):
          theta = 2 * np.pi * sampler.sample(n, 1, random)
          X = np.concatenate((self.a * np.cos(theta),self.b * np.sin(theta)), axis=1)
          return X + self.center
      
  3. ppsci/geometry/__init__.py 中加入椭圆类 Ellipse,如下所示。

    ppsci/geometry/__init__.py
    ...
    ...
    from ppsci.geometry.geometry_2d import Ellipse
    
    __all__ = [
        ...,
        ...,
        "Ellipse",
    ]
    

完成上述实现之后,我们就能以如下方式实例化椭圆类。同样地,建议将所有几何类实例包装在一个字典中,方便后续索引。

examples/demo/demo.py
ellipse = ppsci.geometry.Ellipse(0, 0, 2, 1)
geom = {..., "ellipse": ellipse}

2.6 构建约束条件

无论是 PINNs 方法还是数据驱动方法,它们总是需要利用数据来指导网络模型的训练,而这一过程在 PaddleScience 中由 Constraint(约束)模块负责。

2.6.1 构建已有约束

PaddleScience 内置了一些常见的约束,如下所示。

约束名称 功能
ppsci.constraint.BoundaryConstraint 边界约束
ppsci.constraint.InitialConstraint 内部点初值约束
ppsci.constraint.IntegralConstraint 边界积分约束
ppsci.constraint.InteriorConstraint 内部点约束
ppsci.constraint.PeriodicConstraint 边界周期约束
ppsci.constraint.SupervisedConstraint 监督数据约束

如果您想使用这些内置的约束,可以直接调用 ppsci.constraint.* 下的 API,并填入约束实例化所需的参数,即可快速构建约束条件。

examples/demo/demo.py
# create a SupervisedConstraint
sup_constraint = ppsci.constraint.SupervisedConstraint(
    train_dataloader_cfg,
    ppsci.loss.MSELoss("mean"),
    {"eta": lambda out: out["eta"], **equation["VIV"].equations},
    name="Sup",
)

约束的参数填写方式,请参考对应的 API 文档参数说明和样例代码。

2.6.2 构建新的约束

当 PaddleScience 内置的约束无法满足您的需求时,您也可以通过新增约束文件并编写约束代码的方式,使用您自 定义的约束,步骤如下:

  1. ppsci/constraint 下新建约束文件(此处以约束 new_constraint.py 为例)

  2. new_constraint.py 文件中导入 PaddleScience 的约束基类所在模块 base,并让创建的新约束 类(以 Class NewConstraint 为例)从 base.PDE 继承

    ppsci/constraint/new_constraint.py
    from ppsci.constraint import base
    
    class NewConstraint(base.Constraint):
    
  3. 编写 __init__ 方法,用于约束创建时的初始化。

    ppsci/constraint/new_constraint.py
    from ppsci.constraint import base
    
    class NewConstraint(base.Constraint):
        def __init__(self, ...):
            ...
            # initialization
    
  4. ppsci/constraint/__init__.py 中导入编写的新约束类,并添加到 __all__

    ppsci/constraint/__init__.py
    ...
    ...
    from ppsci.constraint.new_constraint import NewConstraint
    
    __all__ = [
        ...,
        ...,
        "NewConstraint",
    ]
    

完成上述新约束代码编写的工作之后,我们就能像 PaddleScience 内置约束一样,以 ppsci.constraint.NewConstraint 的方式,调用我们编写的新约束类,并用于创建约束实例。

examples/demo/demo.py
new_constraint = ppsci.constraint.NewConstraint(...)
constraint = {..., new_constraint.name: new_constraint}

2.7 定义超参数

在模型开始训练前,需要定义一些训练相关的超参数,如训练轮数、学习率等,如下所示。

examples/demo/demo.py
EPOCHS = 10000
LEARNING_RATE = 0.001

2.8 构建优化器

模型训练时除了模型本身,还需要定义一个用于更新模型参数的优化器,如下所示。

examples/demo/demo.py
optimizer = ppsci.optimizer.Adam(0.001)(model)

2.9 构建评估器[可选]

2.9.1 构建已有评估器

PaddleScience 内置了一些常见的评估器,如下所示。

评估器名称 功能
ppsci.validator.GeometryValidator 几何评估器
ppsci.validator.SupervisedValidator 监督数据评估器

如果您想使用这些内置的评估器,可以直接调用 ppsci.validate.* 下的 API,并填入评估器实例化所需的参数,即可快速构建评估器。

examples/demo/demo.py
# create a SupervisedValidator
eta_mse_validator = ppsci.validate.SupervisedValidator(
    valid_dataloader_cfg,
    ppsci.loss.MSELoss("mean"),
    {"eta": lambda out: out["eta"], **equation["VIV"].equations},
    metric={"MSE": ppsci.metric.MSE()},
    name="eta_mse",
)

2.9.2 构建新的评估器

当 PaddleScience 内置的评估器无法满足您的需求时,您也可以通过新增评估器文件并编写评估器代码的方式,使 用您自定义的评估器,步骤如下:

  1. ppsci/validate 下新建评估器文件(此处以 new_validator.py 为例)。

  2. new_validator.py 文件中导入 PaddleScience 的评估器基类所在模块 base,并让创建的新评估器类(以 Class NewValidator 为例)从 base.Validator 继承。

    ppsci/validate/new_validator.py
    from ppsci.validate import base
    
    class NewValidator(base.Validator):
    
  3. 编写 __init__ 代码,用于评估器创建时的初始化

    ppsci/validate/new_validator.py
    from ppsci.validate import base
    
    class NewValidator(base.Validator):
        def __init__(self, ...):
            ...
            # initialization
    
  4. ppsci/validate/__init__.py 中导入编写的新评估器类,并添加到 __all__ 中。

    ppsci/validate/__init__.py
    ...
    ...
    from ppsci.validate.new_validator import NewValidator
    
    __all__ = [
        ...,
        ...,
        "NewValidator",
    ]
    

完成上述新评估器代码编写的工作之后,我们就能像 PaddleScience 内置评估器一样,以 ppsci.validate.NewValidator 的方式,调用我们编写的新评估器类,并用于创建评估器实例。同样地,在评估器构建完毕后之后,建议将所有评估器包装到一个字典中方便后续索引。

examples/demo/demo.py
new_validator = ppsci.validate.NewValidator(...)
validator = {..., new_validator.name: new_validator}

2.10 构建可视化器[可选]

PaddleScience 内置了一些常见的可视化器,如 VisualizerVtu 可视化器等,如果您想使用这些内置的可视 化器,可以直接调用 ppsci.visualizer.* 下的 API,并填入可视化器实例化所需的 参数,即可快速构建模型。

examples/demo/demo.py
# manually collate input data for visualization,
# interior+boundary
vis_points = {}
for key in vis_interior_points:
    vis_points[key] = np.concatenate(
        (vis_interior_points[key], vis_boundary_points[key])
    )

visualizer = {
    "visualize_u_v": ppsci.visualize.VisualizerVtu(
        vis_points,
        {"u": lambda d: d["u"], "v": lambda d: d["v"], "p": lambda d: d["p"]},
        prefix="result_u_v",
    )
}

如需新增可视化器,步骤与其他模块的新增方法类似,此处不再赘述。

2.11 构建Solver

Solver 是 PaddleScience 负责调用训练、评估、可视化的全局管理类。在训练开始前,需要把构建好的模型、约束、优化器等实例传给 Solver 以实例化,再调用它的内置方法进行训练、评估、可视化。

examples/demo/demo.py
# initialize solver
solver = ppsci.solver.Solver(
    model,
    constraint,
    output_dir,
    optimizer,
    lr_scheduler,
    EPOCHS,
    iters_per_epoch,
    eval_during_train=True,
    eval_freq=eval_freq,
    equation=equation,
    validator=validator,
    visualizer=visualizer,
)

2.12 编写配置文件[重要]

内容较长,点击展开

经过上述步骤的开发,案例代码的主要部分已经完成。 当我们想基于这份代码运行一些调优实验,从而得到更好的结果,或更好地对运行参数设置进行管理, 则可以利用 PaddleScience 提供的配置管理系统,将实验运行参数从代码中分离出来,写到 yaml 格式的配置文件中,从而更好的管理、记录、调优实验。

viv 案例代码为例,在运行时我们需要在适当的位置设置方程参数、STL 文件路径、训练轮数、batch_size、随机种子、学习率等超参数,如下所示。

...
# set dataloader config
train_dataloader_cfg = {
    "dataset": {
        "name": "MatDataset",
        "file_path": cfg.VIV_DATA_PATH,
        "input_keys": ("t_f",),
        "label_keys": ("eta", "f"),
        "weight_dict": {"eta": 100},
    },
    "batch_size": cfg.TRAIN.batch_size,
    "sampler": {
        "name": "BatchSampler",
        "drop_last": False,
        "shuffle": True,
    },
}
...
...
# set optimizer
lr_scheduler = ppsci.optimizer.lr_scheduler.Step(**cfg.TRAIN.lr_scheduler)()
...

这些参数在实验过程中随时可能作为变量而被手动调整,在调整过程中如何避免频繁修改源代码导致试验记录混乱、保障记录完整可追溯便是一大问题,因此 PaddleScience 提供了基于 hydra + omegaconf 的 配置文件管理系统来解决这一问题。

将已有的代码修改成配置文件控制的方式非常简单,只需要将必要的参数写到 yaml 文件中,然后通过 hydra 在程序运行时读取、解析该文件,通过其内容控制实验运行即可,以 viv 案例为例,具体包含以下几个步骤。

  1. 则需在代码文件 viv.py 所在目录下新建 conf 文件夹,并在 conf 下新建与 viv.py 同名的 viv.yaml 文件,如下所示。

    PaddleScience/examples/fsi/
    ├── viv.py
    └── conf
        └── viv.yaml
    
  2. viv.py 中必要的超参数按照其语义填写到 viv.yaml 的各个层级的配置中,如通用参数 modeoutput_dirseed、方程参数、文件路径等,直接填写在一级层级;而只与模型、训练相关的模型结构参数、训练轮数等,只需分别填写在 MODELTRAIN 层级下即可(EVAL 层级同理)。

  3. 将已有的 trainevaluate 函数修改为接受一个参数 cfgcfg 即为读取进来的 yaml 文件里的内容,并以字典的形式存储),并将其内部的超参数统一改为通过 cfg.xxx 获取而非原先的直接设置为数字或字符串,如下所示。

    from omegaconf import DictConfig
    
    def train(cfg: DictConfig):
        # 训练代码...
    
    def evaluate(cfg: DictConfig):
        # 评估代码...
    
  4. 新建一个 main 函数(同样接受且只接受一个 cfg 参数),它负责根据 cfg.mode 来调用 trainevaluate 函数,并 main 函数加上装饰器 @hydra.main(version_base=None, config_path="./conf", config_name="viv.yaml"),如下所示。

    @hydra.main(version_base=None, config_path="./conf", config_name="viv.yaml")
    def main(cfg: DictConfig):
        if cfg.mode == "train":
            train(cfg)
        elif cfg.mode == "eval":
            evaluate(cfg)
        else:
            raise ValueError(f"cfg.mode should in ['train', 'eval'], but got '{cfg.mode}'")
    
  5. 在主程序的启动入口 if __name__ == "__main__": 中启动 main() 即可,如下所示。

    if __name__ == "__main__":
        main()
    

全部改造完毕后,viv.pyviv.yaml 如下所示。

# Copyright (c) 2023 PaddlePaddle Authors. All Rights Reserved.

# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at

#     http://www.apache.org/licenses/LICENSE-2.0

# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.

import hydra
from omegaconf import DictConfig

import ppsci


def train(cfg: DictConfig):
    # set model
    model = ppsci.arch.MLP(**cfg.MODEL)

    # set equation
    equation = {"VIV": ppsci.equation.Vibration(2, -4, 0)}

    # set constraint
    sup_constraint = ppsci.constraint.SupervisedConstraint(
        {
            "dataset": {
                "name": "MatDataset",
                "file_path": cfg.VIV_DATA_PATH,
                "input_keys": ("t_f",),
                "label_keys": ("eta", "f"),
                "weight_dict": {"eta": 100},
            },
            "batch_size": cfg.TRAIN.batch_size,
            "sampler": {
                "name": "BatchSampler",
                "drop_last": False,
                "shuffle": True,
            },
        },
        ppsci.loss.MSELoss("mean"),
        {"eta": lambda out: out["eta"], **equation["VIV"].equations},
        name="Sup",
    )
    # wrap constraints together
    constraint = {sup_constraint.name: sup_constraint}

    # set optimizer
    lr_scheduler = ppsci.optimizer.lr_scheduler.Step(**cfg.TRAIN.lr_scheduler)()
    optimizer = ppsci.optimizer.Adam(lr_scheduler)((model,) + tuple(equation.values()))

    # set validator
    eta_l2_validator = ppsci.validate.SupervisedValidator(
        {
            "dataset": {
                "name": "MatDataset",
                "file_path": cfg.VIV_DATA_PATH,
                "input_keys": ("t_f",),
                "label_keys": ("eta", "f"),
            },
            "batch_size": cfg.EVAL.batch_size,
        },
        ppsci.loss.MSELoss("mean"),
        {"eta": lambda out: out["eta"], **equation["VIV"].equations},
        metric={"MSE": ppsci.metric.L2Rel()},
        name="eta_l2",
    )
    validator = {eta_l2_validator.name: eta_l2_validator}

    # set visualizer(optional)
    visu_mat = ppsci.utils.reader.load_mat_file(
        cfg.VIV_DATA_PATH,
        ("t_f", "eta_gt", "f_gt"),
        alias_dict={"eta_gt": "eta", "f_gt": "f"},
    )
    visualizer = {
        "visualize_u": ppsci.visualize.VisualizerScatter1D(
            visu_mat,
            ("t_f",),
            {
                r"$\eta$": lambda d: d["eta"],  # plot with latex title
                r"$\eta_{gt}$": lambda d: d["eta_gt"],  # plot with latex title
                r"$f$": equation["VIV"].equations["f"],  # plot with latex title
                r"$f_{gt}$": lambda d: d["f_gt"],  # plot with latex title
            },
            num_timestamps=1,
            prefix="viv_pred",
        )
    }

    # initialize solver
    solver = ppsci.solver.Solver(
        model,
        constraint,
        optimizer=optimizer,
        equation=equation,
        validator=validator,
        visualizer=visualizer,
        cfg=cfg,
    )

    # train model
    solver.train()
    # evaluate after finished training
    solver.eval()
    # visualize prediction after finished training
    solver.visualize()


def evaluate(cfg: DictConfig):
    # set model
    model = ppsci.arch.MLP(**cfg.MODEL)

    # set equation
    equation = {"VIV": ppsci.equation.Vibration(2, -4, 0)}

    # set validator
    eta_l2_validator = ppsci.validate.SupervisedValidator(
        {
            "dataset": {
                "name": "MatDataset",
                "file_path": cfg.VIV_DATA_PATH,
                "input_keys": ("t_f",),
                "label_keys": ("eta", "f"),
            },
            "batch_size": cfg.EVAL.batch_size,
        },
        ppsci.loss.MSELoss("mean"),
        {"eta": lambda out: out["eta"], **equation["VIV"].equations},
        metric={"MSE": ppsci.metric.L2Rel()},
        name="eta_l2",
    )
    validator = {eta_l2_validator.name: eta_l2_validator}

    # set visualizer(optional)
    visu_mat = ppsci.utils.reader.load_mat_file(
        cfg.VIV_DATA_PATH,
        ("t_f", "eta_gt", "f_gt"),
        alias_dict={"eta_gt": "eta", "f_gt": "f"},
    )

    visualizer = {
        "visualize_u": ppsci.visualize.VisualizerScatter1D(
            visu_mat,
            ("t_f",),
            {
                r"$\eta$": lambda d: d["eta"],  # plot with latex title
                r"$\eta_{gt}$": lambda d: d["eta_gt"],  # plot with latex title
                r"$f$": equation["VIV"].equations["f"],  # plot with latex title
                r"$f_{gt}$": lambda d: d["f_gt"],  # plot with latex title
            },
            num_timestamps=1,
            prefix="viv_pred",
        )
    }

    # initialize solver
    solver = ppsci.solver.Solver(
        model,
        equation=equation,
        validator=validator,
        visualizer=visualizer,
        cfg=cfg,
    )

    # evaluate
    solver.eval()
    # visualize prediction
    solver.visualize()


def export(cfg: DictConfig):
    from paddle import nn
    from paddle.static import InputSpec

    # set model
    model = ppsci.arch.MLP(**cfg.MODEL)
    # initialize equation
    equation = {"VIV": ppsci.equation.Vibration(2, -4, 0)}
    # initialize solver
    solver = ppsci.solver.Solver(
        model,
        equation=equation,
        cfg=cfg,
    )
    # Convert equation to func
    f_func = ppsci.lambdify(
        solver.equation["VIV"].equations["f"],
        solver.model,
        list(solver.equation["VIV"].learnable_parameters),
    )

    class Wrapped_Model(nn.Layer):
        def __init__(self, model, func):
            super().__init__()
            self.model = model
            self.func = func

        def forward(self, x):
            model_out = self.model(x)
            func_out = self.func(x)
            return {**model_out, "f": func_out}

    solver.model = Wrapped_Model(model, f_func)
    # export models
    input_spec = [
        {key: InputSpec([None, 1], "float32", name=key) for key in model.input_keys},
    ]
    solver.export(input_spec, cfg.INFER.export_path, skip_prune_program=True)


def inference(cfg: DictConfig):
    from deploy.python_infer import pinn_predictor

    # set model predictor
    predictor = pinn_predictor.PINNPredictor(cfg)

    infer_mat = ppsci.utils.reader.load_mat_file(
        cfg.VIV_DATA_PATH,
        ("t_f", "eta_gt", "f_gt"),
        alias_dict={"eta_gt": "eta", "f_gt": "f"},
    )

    input_dict = {key: infer_mat[key] for key in cfg.INFER.input_keys}

    output_dict = predictor.predict(input_dict, cfg.INFER.batch_size)

    # mapping data to cfg.INFER.output_keys
    output_dict = {
        store_key: output_dict[infer_key]
        for store_key, infer_key in zip(cfg.INFER.output_keys, output_dict.keys())
    }
    infer_mat.update(output_dict)

    ppsci.visualize.plot.save_plot_from_1d_dict(
        "./viv_pred", infer_mat, ("t_f",), ("eta", "eta_gt", "f", "f_gt")
    )


@hydra.main(version_base=None, config_path="./conf", config_name="viv.yaml")
def main(cfg: DictConfig):
    if cfg.mode == "train":
        train(cfg)
    elif cfg.mode == "eval":
        evaluate(cfg)
    elif cfg.mode == "export":
        export(cfg)
    elif cfg.mode == "infer":
        inference(cfg)
    else:
        raise ValueError(
            f"cfg.mode should in ['train', 'eval', 'export', 'infer'], but got '{cfg.mode}'"
        )


if __name__ == "__main__":
    main()
defaults: # (1)
  - ppsci_default # (2)
  - TRAIN: train_default # (3)
  - TRAIN/ema: ema_default # (4)
  - TRAIN/swa: swa_default # (5)
  - EVAL: eval_default # (6)
  - INFER: infer_default # (7)
  - _self_ # (8)

hydra:
  run:
    # dynamic output directory according to running time and override name
    dir: outputs_VIV/${now:%Y-%m-%d}/${now:%H-%M-%S}/${hydra.job.override_dirname} # (9)
  job:
    name: ${mode} # name of logfile
    chdir: false # keep current working directory unchanged
  callbacks:
    init_callback: # (10)
      _target_: ppsci.utils.callbacks.InitCallback # (11)
  sweep:
    # output directory for multirun
    dir: ${hydra.run.dir}
    subdir: ./

# general settings
mode: train # running mode: train/eval # (12)
seed: 42 # (13)
output_dir: ${hydra:run.dir} # (14)
log_freq: 20 # (15)
use_tbd: false # (16)

VIV_DATA_PATH: "./VIV_Training_Neta100.mat" # (17)

# model settings
MODEL: # (18)
  input_keys: ["t_f"] # (19)
  output_keys: ["eta"] # (20)
  num_layers: 5 # (21)
  hidden_size: 50 # (22)
  activation: "tanh" # (23)

# training settings
TRAIN: # (24)
  epochs: 100000 # (25)
  iters_per_epoch: 1 # (26)
  save_freq: 10000 # (27)
  eval_during_train: true # (28)
  eval_freq: 1000 # (29)
  batch_size: 100 # (30)
  lr_scheduler: # (31)
    epochs: ${TRAIN.epochs} # (32)
    iters_per_epoch: ${TRAIN.iters_per_epoch} # (33)
    learning_rate: 0.001 # (34)
    step_size: 20000 # (35)
    gamma: 0.9 # (36)
  pretrained_model_path: null # (37)
  checkpoint_path: null # (38)

# evaluation settings
EVAL: # (39)
  pretrained_model_path: null # (40)
  batch_size: 32 # (41)

# inference settings
INFER: # (42)
  pretrained_model_path: "https://paddle-org.bj.bcebos.com/paddlescience/models/viv/viv_pretrained.pdparams" # (43)
  export_path: ./inference/viv # (44)
  pdmodel_path: ${INFER.export_path}.pdmodel # (45)
  pdiparams_path: ${INFER.export_path}.pdiparams # (46)
  input_keys: ${MODEL.input_keys} # (47)
  output_keys: ["eta", "f"] # (48)
  device: gpu # (49)
  engine: native # (50)
  precision: fp32 # (51)
  onnx_path: ${INFER.export_path}.onnx # (52)
  ir_optim: true # (53)
  min_subgraph_size: 10 # (54)
  gpu_mem: 4000 # (55)
  gpu_id: 0 # (56)
  max_batch_size: 64 # (57)
  num_cpu_threads: 4 # (58)
  batch_size: 16 # (59)
  1. defaults: - 定义一系列默认配置项的开头。
  2. - ppsci_default - 使用名为ppsci_default的默认配置。
  3. - TRAIN: train_default - 在TRAIN命名空间下应用train_default默认配置。
  4. - TRAIN/ema: ema_default - 在TRAINema子命名空间下应用ema_default配置。
  5. - TRAIN/swa: swa_default - 在TRAINswa子命名空间下应用swa_default配置。
  6. - EVAL: eval_default - 在EVAL命名空间下应用eval_default默认配置。
  7. - INFER: infer_default - 在INFER命名空间下应用infer_default默认配置。
  8. - _self_ - 表示当前文件本身的配置将被包含,用于覆盖或添加默认设置。
  9. dir: outputs_VIV/... - 设置动态输出目录,基于当前时间以及覆盖名称。
  10. init_callback: - 定义初始化回调的设置。
  11. _target_: ppsci.utils.callbacks.InitCallback - 指定初始化回调的具体实现类或函数。
  12. mode: train - 设置当前运行模式为训练模式。
  13. seed: 42 - 设置全局随机种子为42,以确保实验可重复性。
  14. output_dir: ${hydra:run.dir} - 设置输出目录,与Hydra配置的运行目录相同。
  15. log_freq: 20 - 设置日志记录频率,每20次进行记录。
  16. use_tbd: false - 关闭 tensorboard 功能。
  17. VIV_DATA_PATH: "./VIV_Training_Neta100.mat" - 指定VIV的数据文件路径(可以其它数据集或超参值)。
  18. MODEL: - 开始定义模型相关设置。
  19. input_keys: ["t_f"] - 设置模型的输入键为t_f
  20. output_keys: ["eta"] - 设置模型的输出键为eta
  21. num_layers: 5 - 设置模型层数为5。
  22. hidden_size: 50 - 设置模型隐藏层的大小为50。
  23. activation: "tanh" - 使用双曲正切函数作为激活函数。
  24. TRAIN: - 开始定义训练相关设置。
  25. epochs: 100000 - 设置训练的总轮数为100000轮。
  26. iters_per_epoch: 1 - 每个轮次包含1次迭代。
  27. save_freq: 10000 - 每10000次迭代保存一次模型或检查点。
  28. eval_during_train: true - 在训练过程中启用评估。
  29. eval_freq: 1000 - 每1000次迭代进行一次评估。
  30. batch_size: 100 - 设置训练批次大小为100。
  31. lr_scheduler: - 开始定义学习率调度器的设置。
  32. epochs: ${TRAIN.epochs} - 学习率调度器使用的轮数与训练的轮数相同。
  33. iters_per_epoch: ${TRAIN.iters_per_epoch} - 学习率调度器使用的每个轮次的迭代数与训练的相同。
  34. learning_rate: 0.001 - 设置初始学习率为0.001。
  35. step_size: 20000 - 每20000步调整学习率。
  36. gamma: 0.9 - 学习率调整的比率为0.9。
  37. pretrained_model_path: null - 初始预训练模型路径,可以是实际路径或 url,默认为空表示不使用预训练模型。
  38. checkpoint_path: null - 检查点路径,用于指定模型加载的检查点,默认为空表示不加载检查点。
  39. EVAL: - 开始定义评估相关设置。
  40. pretrained_model_path: null - 评估时使用的预训练模型路径,默认为空表示不使用预训练模型。
  41. batch_size: 32 - 评估时的批次
  42. INFER: - 开始定义推理(推断)相关的设置。
  43. pretrained_model_path: "https://..." - 指定预训练模型的路径,可以是实际路径或 url,用于推理。
  44. export_path: ./inference/viv - 设置模型导出路径,即推理所需的模型文件保存位置。
  45. pdmodel_path: ${INFER.export_path}.pdmodel - 指定Paddle模型的结构文件路径。
  46. pdiparams_path: ${INFER.export_path}.pdiparams - 指定Paddle模型的参数文件路径。
  47. input_keys: ${MODEL.input_keys} - 推理时使用的输入键与模型定义时相同。
  48. output_keys: ["eta", "f"] - 设置推理时的输出键,包括"eta"和"f"。
  49. device: gpu - 指定推理使用的设备为GPU。
  50. engine: native - 设置推理引擎为原生(可能是指使用特定库或框架的默认引擎)。
  51. precision: fp32 - 设置推理的精度为32位浮点数。
  52. onnx_path: ${INFER.export_path}.onnx - 如果支持,指定ONNX模型文件的路径。
  53. ir_optim: true - 启用中间表示(Intermediate Representation)的优化。
  54. min_subgraph_size: 10 - 设置子图优化的最小大小,用于提升推理性能。
  55. gpu_mem: 4000 - 指定推理时GPU可使用的内存量(单位可能是MB)。
  56. gpu_id: 0 - 指定使用哪个GPU进行推理,这里是第一个GPU。
  57. max_batch_size: 64 - 设置推理时支持的最大批次大小。
  58. num_cpu_threads: 4 - 指定用于推理的CPU线程数量。
  59. batch_size: 16 - 设置推理时的实际批次大小为16。

2.13 训练

PaddleScience 模型的训练只需调用一行代码。

examples/demo/demo.py
solver.train()

2.14 评估

PaddleScience 模型的评估只需调用一行代码。

examples/demo/demo.py
solver.eval()

2.15 可视化[可选]

Solver 实例化时传入了 visualizer 参数,则 PaddleScience 模型的可视化只需调用一行代码。

examples/demo/demo.py
solver.visualize()

可视化方案

对于一些复杂的案例,Visualizer 的编写成本并不低,并且不是任何数据类型都可以进行方便的可视化。因此可以在训练完成之后,手动构建用于预测的数据字典,再使用 solver.predict 得到模型预测结果,最后利用 matplotlib 等第三方库,对预测结果进行可视化并保存。

3. 编写文档

除了案例代码,PaddleScience 同时存放了对应案例的详细文档,使用 Markdown + Mkdocs + Mkdocs-Material 进行编写和渲染,撰写文档步骤如下。

3.1 安装必要依赖包

文档撰写过程中需进行即时渲染,预览文档内容以检查撰写的内容是否有误。因此需要按照如下命令,安装 mkdocs 相关依赖包。

pip install -r docs/requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

3.2 撰写文档内容

PaddleScience 文档基于 Mkdocs-MaterialPyMdown 等插件进行编写,其在 Markdown 语法基础上支持了多种扩展性功能,能极大地提升文档的美观程度和阅读体验。建议参考超链接内的文档内容,选择合适的功能辅助文档撰写。

3.3 使用 markdownlint 格式化文档[可选]

如果您使用的开发环境为 VSCode,则推荐安装 markdownlint 扩展。安装完毕后在编写完的文档内:点击右键-->格式化文档即可。

3.4 预览文档

PaddleScience/ 目录下执行以下命令,等待构建完成后,点击显示的链接进入本地网页预览文档内容。

mkdocs serve
# ====== 终端打印信息如下 ======
# INFO     -  Building documentation...
# INFO     -  Cleaning site directory
# INFO     -  Documentation built in 20.95 seconds
# INFO     -  [07:39:35] Watching paths for changes: 'docs', 'mkdocs.yml'
# INFO     -  [07:39:35] Serving on http://127.0.0.1:8000/PaddlePaddle/PaddleScience/
# INFO     -  [07:39:41] Browser connected: http://127.0.0.1:58903/PaddlePaddle/PaddleScience/
# INFO     -  [07:40:41] Browser connected: http://127.0.0.1:58903/PaddlePaddle/PaddleScience/zh/development/

手动指定服务地址和端口号

若默认端口号 8000 被占用,则可以手动指定服务部署的地址和端口,示例如下。

# 指定 127.0.0.1 为地址,8687 为端口号
mkdocs serve -a 127.0.0.1:8687

4. 整理代码并提交

4.1 安装 pre-commit

PaddleScience 是一个开源的代码库,由多人共同参与开发,因此为了保持最终合入的代码风格整洁、一致, PaddleScience 使用了包括 isortblack 等自动化代码检查、格式化插件, 让 commit 的代码遵循 python PEP8 代码风格规范。

因此在 commit 您的代码之前,请务必先执行以下命令安装 pre-commit,否则提交的 PR 会被 code-style 检测到代码未格式化而无法合入。

pip install pre-commit
pre-commit install

关于 pre-commit 的详情请参考 Paddle 代码风格检查指南

4.2 整理代码

在完成范例编写与训练后,确认结果无误,就可以整理代码。 使用 git 命令将所有新增、修改的代码文件以及必要的文档、图片等一并上传到自己仓库的 dev_model 分支上。

4.3 提交 pull request

在 github 网页端切换到 dev_model 分支,并点击 "Contribute",再点击 "Open pull request" 按钮, 将含有您的代码、文档、图片等内容的 dev_model 分支作为合入请求贡献到 PaddleScience。