Skip to content

Commit a700239

Browse files
yang131313Ligoml
andauthored
modify punctuation (#4931)
* modify comma * modify stop * modify stop after None * modify stop * stop after serial num * stop in the end * 。 between nums * colon 1 * :xxx:`xxx` * url fix * semicolon * Update GradScaler_cn.rst * Update EarlyStopping_cn.rst * Update ParallelEnv_cn.rst * Update Transform_cn.rst * Update fft2_cn.rst * Update fftfreq_cn.rst * Delete ResNeXt_cn.rst * Update ResNet_cn.rst Co-authored-by: Ligoml <[email protected]>
1 parent d209218 commit a700239

File tree

1,072 files changed

+4829
-4899
lines changed

Some content is hidden

Large Commits have some content hidden by default. Use the searchbox below for content that may be hidden.

1,072 files changed

+4829
-4899
lines changed

docs/api/paddle/DataParallel_cn.rst

Lines changed: 6 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -29,7 +29,7 @@ DataParallel
2929
- **strategy** (ParallelStrategy,可选) - (deprecated) 数据并行的策略,包括并行执行的环境配置。默认为None。
3030
- **comm_buffer_size** (int,可选) - 它是通信调用(如NCCLAllReduce)时,参数梯度聚合为一组的内存大小(MB)。默认值:25。
3131
- **last_comm_buffer_size** (float,可选)它限制通信调用中最后一个缓冲区的内存大小(MB)。减小最后一个通信缓冲区的大小有助于提高性能。默认值:1。默认值:1
32-
- **find_unused_parameters** (bool, 可选) 是否在模型forward函数的返回值的所有张量中,遍历整个向后图。对于不包括在loss计算中的参数,其梯度将被预先标记为ready状态用于后续多卡间的规约操作。请注意,模型参数的所有正向输出必须参与loss的计算以及后续的梯度计算。 否则,将发生严重错误。请注意,将find_unused_parameters设置为True会影响计算性能, 因此,如果确定所有参数都参与了loss计算和自动反向图的构建,请将其设置为False。默认值:False。
32+
- **find_unused_parameters** (bool,可选) 是否在模型forward函数的返回值的所有张量中,遍历整个向后图。对于不包括在loss计算中的参数,其梯度将被预先标记为ready状态用于后续多卡间的规约操作。请注意,模型参数的所有正向输出必须参与loss的计算以及后续的梯度计算。否则,将发生严重错误。请注意,将find_unused_parameters设置为True会影响计算性能,因此,如果确定所有参数都参与了loss计算和自动反向图的构建,请将其设置为False。默认值:False。
3333

3434
返回
3535
::::::::::::
@@ -64,11 +64,11 @@ state_dict(destination=None, include_sublayers=True)
6464

6565
**参数**
6666

67-
- **destination** (dict, 可选) - 如果提供 ``destination`` ,则所有参数和持久的buffers都将存放在 ``destination`` 中。 默认值:None。
68-
- **include_sublayers** (bool, 可选) - 如果设置为True,则包括子层的参数和buffers。默认值:True。
67+
- **destination** (dict可选) - 如果提供 ``destination``,则所有参数和持久的buffers都将存放在 ``destination`` 中。默认值:None。
68+
- **include_sublayers** (bool可选) - 如果设置为True,则包括子层的参数和buffers。默认值:True。
6969

7070
**返回**
71-
dict, 包含所有parameters和持久的buffers的dict。
71+
dict,包含所有parameters和持久的buffers的dict。
7272

7373
**代码示例**
7474

@@ -78,12 +78,12 @@ COPY-FROM: paddle.DataParallel.state_dict
7878
set_state_dict(state_dict, use_structured_name=True)
7979
'''''''''
8080

81-
根据传入的 ``state_dict`` 设置parameters和持久的buffers。 所有parameters和buffers将由 ``state_dict`` 中的 ``Tensor`` 设置。
81+
根据传入的 ``state_dict`` 设置parameters和持久的buffers。所有parameters和buffers将由 ``state_dict`` 中的 ``Tensor`` 设置。
8282

8383
**参数**
8484

8585
- **state_dict** (dict) - 包含所有parameters和可持久性buffers的dict。
86-
- **use_structured_name** (bool, 可选) - 如果设置为True,将使用Layer的结构性变量名作为dict的key,否则将使用Parameter或者Buffer的变量名作为key。默认值:True。
86+
- **use_structured_name** (bool可选) - 如果设置为True,将使用Layer的结构性变量名作为dict的key,否则将使用Parameter或者Buffer的变量名作为key。默认值:True。
8787

8888

8989
**返回**

docs/api/paddle/Model_cn.rst

Lines changed: 11 additions & 11 deletions
Original file line numberDiff line numberDiff line change
@@ -12,18 +12,18 @@ Model
1212
参数
1313
:::::::::
1414

15-
- **network** (paddle.nn.Layer): 是 ``paddle.nn.Layer`` 的一个实例
16-
- **inputs** (InputSpec|list|dict|None, 可选): ``network`` 的输入,可以是 ``InputSpec`` 的实例,或者是一个 ``InputSpec`` 的 ``list`` ,或者是格式为 ``{name: InputSpec}`` 的 ``dict`` ,或者为 ``None`` . 默认值为 ``None`` .
17-
- **labels** (InputSpec|list|None, 可选): ``network`` 的标签,可以是 ``InputSpec`` 的实例,或者是一个 ``InputSpec`` 的 ``list`` ,或者为 ``None``. 默认值为 ``None`` .
15+
- **network** (paddle.nn.Layer)是 ``paddle.nn.Layer`` 的一个实例
16+
- **inputs** (InputSpec|list|dict|None可选): ``network`` 的输入,可以是 ``InputSpec`` 的实例,或者是一个 ``InputSpec`` 的 ``list``或者是格式为 ``{name: InputSpec}`` 的 ``dict``,或者为 ``None``默认值为 ``None``
17+
- **labels** (InputSpec|list|None可选): ``network`` 的标签,可以是 ``InputSpec`` 的实例,或者是一个 ``InputSpec`` 的 ``list``或者为 ``None``默认值为 ``None``
1818

1919
.. note::
2020

21-
在动态图中, ``inputs`` 和 ``labels`` 都可以设置为 ``None``. 但是,在静态图中, ``input`` 不能设置为 ``None`` . 而如果损失函数需要标签(label)作为输入,则必须设置 ``labels`` ,否则,可以为 ``None`` 。
21+
在动态图中,``inputs`` 和 ``labels`` 都可以设置为 ``None``但是,在静态图中,``input`` 不能设置为 ``None``而如果损失函数需要标签(label)作为输入,则必须设置 ``labels``,否则,可以为 ``None`` 。
2222

2323
代码示例
2424
:::::::::
2525

26-
1.一般示例
26+
1. 一般示例
2727

2828
.. code-block:: python
2929
@@ -59,7 +59,7 @@ Model
5959
model.fit(data, epochs=2, batch_size=32, verbose=1)
6060
6161
62-
2.使用混合精度训练的例子
62+
2. 使用混合精度训练的例子
6363

6464
.. code-block:: python
6565
@@ -102,7 +102,7 @@ train_batch(inputs, labels=None)
102102
**参数**
103103

104104
- **inputs** (list) - 1维列表,每个元素都是一批次的输入数据,数据类型为 ``numpy.ndarray``。
105-
- **labels** (list) - 1维列表,每个元素都是一批次的输入标签,数据类型为 ``numpy.ndarray`` 。默认值:None。
105+
- **labels** (list) - 1维列表,每个元素都是一批次的输入标签,数据类型为 ``numpy.ndarray``。默认值:None。
106106

107107
**返回**
108108

@@ -146,7 +146,7 @@ eval_batch(inputs, labels=None)
146146

147147

148148
- **inputs** (list) - 1维列表,每个元素都是一批次的输入数据,数据类型为 ``numpy.ndarray`` 。
149-
- **labels** (list) - 1维列表,每个元素都是一批次的输入标签,数据类型为 ``numpy.ndarray`` 。默认值:None。
149+
- **labels** (list) - 1维列表,每个元素都是一批次的输入标签,数据类型为 ``numpy.ndarray``。默认值:None。
150150

151151
**返回**
152152

@@ -292,7 +292,7 @@ load(path, skip_mismatch=False, reset_optimizer=False)
292292
**参数**
293293

294294

295-
- **path** (str) - 保存参数或优化器信息的文件前缀。格式如 ``path.pdparams`` 或者 ``path.pdopt`` ,后者是非必要的,如果不想恢复优化器信息。
295+
- **path** (str) - 保存参数或优化器信息的文件前缀。格式如 ``path.pdparams`` 或者 ``path.pdopt``,后者是非必要的,如果不想恢复优化器信息。
296296
- **skip_mismatch** (bool) - 是否需要跳过保存的模型文件中形状或名称不匹配的参数,设置为 ``False`` 时,当遇到不匹配的参数会抛出一个错误。默认值:False。
297297
- **reset_optimizer** (bool) - 设置为 ``True`` 时,会忽略提供的优化器信息文件。否则会载入提供的优化器信息。默认值:False。
298298

@@ -358,7 +358,7 @@ prepare(optimizer=None, loss=None, metrics=None, amp_configs=None)
358358
- **optimizer** (Optimizer) - 当训练模型的,该参数必须被设定。当评估或测试的时候,该参数可以不设定。默认值:None。
359359
- **loss** (Loss) - 当训练模型的,该参数必须被设定。默认值:None。
360360
- **metrics** (Metric|list[Metric]) - 当该参数被设定时,所有给定的评估方法会在训练和测试时被运行,并返回对应的指标。默认值:None。
361-
- **amp_configs** (str|dict|None) - 混合精度训练的配置,通常是个dict,也可以是str。当使用自动混合精度训练或者纯float16训练时,``amp_configs`` 的key ``level`` 需要被设置为O1或者O2,float32训练时则默认为O0。除了 ``level`` ,还可以传入更多的和混合精度API一致的参数,例如:``init_loss_scaling`` 、 ``incr_ratio`` 、 ``decr_ratio`` 、 ``incr_every_n_steps`` 、 ``decr_every_n_nan_or_inf`` 、 ``use_dynamic_loss_scaling`` 、 ``custom_white_list`` 、 ``custom_black_list`` ,在静态图下还支持传入 ``custom_black_varnames`` 和 ``use_fp16_guard`` 。详细使用方法可以参考参考混合精度API的文档 :ref:`auto_cast <cn_api_amp_auto_cast>` 和 :ref:`GradScaler <cn_api_amp_GradScaler>` 。为了方便起见,当不设置其他的配置参数时,也可以直接传入 ``'O1'`` 、``'O2'`` 。在使用float32训练时,该参数可以为None。默认值:None。
361+
- **amp_configs** (str|dict|None) - 混合精度训练的配置,通常是个dict,也可以是str。当使用自动混合精度训练或者纯float16训练时,``amp_configs`` 的key ``level`` 需要被设置为O1或者O2,float32训练时则默认为O0。除了 ``level``,还可以传入更多的和混合精度API一致的参数,例如:``init_loss_scaling`` 、 ``incr_ratio`` 、 ``decr_ratio`` 、 ``incr_every_n_steps`` 、 ``decr_every_n_nan_or_inf`` 、 ``use_dynamic_loss_scaling`` 、 ``custom_white_list`` 、 ``custom_black_list``,在静态图下还支持传入 ``custom_black_varnames`` 和 ``use_fp16_guard``。详细使用方法可以参考参考混合精度API的文档 :ref:`auto_cast <cn_api_amp_auto_cast>` 和 :ref:`GradScaler <cn_api_amp_GradScaler>`。为了方便起见,当不设置其他的配置参数时,也可以直接传入 ``'O1'`` 、``'O2'``。在使用float32训练时,该参数可以为None。默认值:None。
362362

363363

364364
fit(train_data=None, eval_data=None, batch_size=1, epochs=1, eval_freq=1, log_freq=10, save_dir=None, save_freq=1, verbose=2, drop_last=False, shuffle=True, num_workers=0, callbacks=None)
@@ -427,7 +427,7 @@ None
427427
save_dir='mnist_checkpoint')
428428
429429
430-
2. 使用Dataloader训练的例子.
430+
2. 使用Dataloader训练的例子
431431

432432
.. code-block:: python
433433

docs/api/paddle/ParamAttr_cn.rst

Lines changed: 4 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -10,18 +10,18 @@ ParamAttr
1010
1111
.. note::
1212
该类中的 ``gradient_clip`` 属性在2.0版本会废弃,推荐使用``need_clip``来设置梯度裁剪范围,并在初始化 ``optimizer`` 时设置梯度裁剪。
13-
共有三种裁剪策略: :ref:`api_paddle_nn_ClipGradByGlobalNorm` 、:ref:`api_paddle_nn_ClipGradByNorm` 、 :ref:`api_paddle_nn_ClipGradByValue` 。
13+
共有三种裁剪策略::ref:`api_paddle_nn_ClipGradByGlobalNorm` 、:ref:`api_paddle_nn_ClipGradByNorm` 、 :ref:`api_paddle_nn_ClipGradByValue` 。
1414

1515
创建一个参数属性对象,用户可设置参数的名称、初始化方式、学习率、正则化规则、是否需要训练、梯度裁剪方式、是否做模型平均等属性。
1616

1717
参数
1818
::::::::::::
1919

20-
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
20+
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
2121
- **initializer** (Initializer,可选) - 参数的初始化方式。默认值为None,表示权重参数采用Xavier初始化方式,偏置参数采用全0初始化方式。
2222
- **learning_rate** (float,可选) - 参数的学习率。实际参数的学习率等于全局学习率乘以参数的学习率,再乘以learning rate schedule的系数。
23-
- **regularizer** (WeightDecayRegularizer,可选) - 正则化方法。支持两种正则化策略: :ref:`api_paddle_regularizer_L1Decay` 、
24-
:ref:`api_paddle_regularizer_L2Decay` ,如果在 ``optimizer`` (例如 :ref:`api_paddle_optimizer_SGD` ) 中也
23+
- **regularizer** (WeightDecayRegularizer,可选) - 正则化方法。支持两种正则化策略:ref:`api_paddle_regularizer_L1Decay` 、
24+
:ref:`api_paddle_regularizer_L2Decay`,如果在 ``optimizer`` (例如 :ref:`api_paddle_optimizer_SGD` ) 中也
2525
设置了正则化,``optimizer`` 中的正则化将被忽略。默认值为None,表示没有正则化。
2626
- **trainable** (bool,可选) - 参数是否需要训练。默认值为True,表示需要训练。
2727
- **do_model_average** (bool,可选) - 是否做模型平均。默认值为True。仅在 :ref:`ExponentialMovingAverage` 下使用。

0 commit comments

Comments
 (0)