modify doc

This commit is contained in:
xumengjuan1 2022-01-21 12:00:58 +08:00
parent 4d81f9737f
commit e987b843f7
19 changed files with 24 additions and 26 deletions

View File

@ -45,7 +45,7 @@ mindspore.dataset.DSCallback
.. py:method:: ds_step_end(ds_run_context)
用于定义在指定数据step结束后执行的回调方法。
用于定义在指定数据step结束后执行的回调方法。
**参数:**

View File

@ -156,7 +156,7 @@
input index信息的元组。
.. py:method:: map(operations, input_columns=None, output_columns=None, column_order=None, num_parallel_workers=None, python_multiprocessing=False, cache=None, callbacks=None)
.. py:method:: map(operations, input_columns=None, output_columns=None, column_order=None, num_parallel_workers=None, python_multiprocessing=False, cache=None, callbacks=None, max_rowsize=16, offload=None)
给定一组数据增强列表,按顺序将数据增强作用在数据集对象上。

View File

@ -11,7 +11,7 @@ mindspore.dataset.audio.transforms.FrequencyMasking
- **iid_masks** (bool, 可选) - 是否施加随机掩码默认值False。
- **frequency_mask_param** (int, 可选) - 当 `iid_masks` 为True时掩码长度将从[0, freq_mask_param]中均匀采样;当 `iid_masks` 为False时直接使用该值作为掩码长度。取值范围为[0, freq_length],其中 `freq_length` 为音频波形在频域的长度默认值0。
- **mask_start** (int, 可选) - 添加掩码的起始位置,只有当 `iid_masks` 为True时该值才会生效。取值范围为[0, freq_length - freq_mask_param],其中 `freq_length` 为音频波形在频域的长度默认值0。
- **mask_start** (int, 可选) - 添加掩码的起始位置,只有当 `iid_masks` 为True时该值才会生效。取值范围为[0, freq_length - frequency_mask_param],其中 `freq_length` 为音频波形在频域的长度默认值0。
- **mask_value** (float, 可选) - 掩码填充值默认值0.0。
.. image:: api_img/frequency_masking_original.png

View File

@ -39,7 +39,7 @@ mindspore.nn.Adagrad
- **update_slots** (bool) - 如果为True则更新累加器 :math:`h` 。默认值True。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
- **weight_decay** (Union[float, int]) - 要乘以权重的权重衰减值必须大于等于0.0。默认值0.0。

View File

@ -45,7 +45,7 @@ mindspore.nn.Adam
- **use_nesterov** (bool) - 是否使用Nesterov Accelerated Gradient (NAG)算法更新梯度。如果为True使用NAG更新梯度。如果为False则在不使用NAG的情况下更新梯度。默认值False。
- **weight_decay** (float) - 权重衰减L2 penalty。必须大于等于0。默认值0.0。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
**输入:**

View File

@ -48,7 +48,7 @@ mindspore.nn.AdamOffload
- **use_nesterov** (bool) - 是否使用Nesterov Accelerated Gradient (NAG)算法更新梯度。如果为True使用NAG更新梯度。如果为False则在不使用NAG的情况下更新梯度。默认值False。
- **weight_decay** (float) - 权重衰减L2 penalty。必须大于等于0。默认值0.0。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
**输入:**

View File

@ -183,7 +183,6 @@
- **RuntimeError** 如果参数不属于任何stage。
.. py:method:: insert_child_to_cell(child_name, child_cell)
将一个给定名称的子Cell添加到当前Cell。
@ -215,7 +214,7 @@
- **KeyError** 如果参数名称为空或包含"."。
- **TypeError** 如果参数的类型不是Parameter。
.. py:method:: load_parameter_slice(params)
.. py:method:: load_parameter_slice(params)
根据并行策略获取Tensor分片并替换原始参数。
@ -379,8 +378,8 @@
**参数:**
- **recurse** (bool) 是否设置子网络的可训练参数。默认值True。
- **init_in_server** (bool) 是否在服务器上初始化由参数服务器更新的可训练参数。默认值False。
- **recurse** (bool) 是否设置子网络的可训练参数。默认值True。
- **init_in_server** (bool) 是否在服务器上初始化由参数服务器更新的可训练参数。默认值False。
.. py:method:: set_train(mode=True)

View File

@ -51,7 +51,7 @@ mindspore.nn.FTRL
- **l2** (float)l2正则化强度必须大于等于零。默认值0.0。
- **use_locking** (bool) - 如果为True则更新操作使用锁保护。默认值False。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
- **weight_decay** (Union[float, int]) - 要乘以权重的权重衰减值必须为零或正值。默认值0.0。

View File

@ -48,7 +48,7 @@ mindspore.nn.LazyAdam
- **use_nesterov** (bool) - 是否使用Nesterov Accelerated Gradient (NAG)算法更新梯度。如果为True使用NAG更新梯度。如果为False则在不使用NAG的情况下更新梯度。默认值False。
- **weight_decay** (Union[float, int]) - 权重衰减L2 penalty。必须大于等于0。默认值0.0。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
**输入:**

View File

@ -42,7 +42,7 @@ mindspore.nn.Momentum
- **momentum** (float) - 浮点数类型的超参表示移动平均的动量。必须等于或大于0.0。
- **weight_decay** (int, float) - 权重衰减L2 penalty值。必须大于等于0.0。默认值0.0。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
- **use_nesterov** (bool) - 是否使用Nesterov Accelerated Gradient (NAG)算法更新梯度。默认值False。

View File

@ -26,7 +26,7 @@ mindspore.nn.Optimizer
- **weight_decay** (Union[float, int]) - 权重衰减的整数或浮点值。必须等于或大于0。如果 `weight_decay` 是整数它将被转换为浮点数。默认值0.0。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
**异常:**

View File

@ -44,7 +44,7 @@ mindspore.nn.ProximalAdagrad
- **l2** (float):l2正则化强度必须大于或等于零。默认值0.0。
- **use_locking** (bool) - 如果为True则更新操作使用锁保护。默认值False。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
- **weight_decay** (Union[float, int]) - 要乘以权重的权重衰减值必须为零或正值。默认值0.0。

View File

@ -66,7 +66,7 @@ mindspore.nn.RMSProp
- **use_locking** (bool) - 是否对参数更新加锁保护。默认值False。
- **centered** (bool) - 如果为True则梯度将通过梯度的估计方差进行归一。默认值False。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
- **weight_decay** (Union[float, int]) - 权重衰减L2 penalty。必须大于等于0。默认值0.0。

View File

@ -48,8 +48,8 @@ mindspore.nn.SGD
- **dampening** (float): 浮点动量阻尼值必须大于等于0.0。默认值0.0。
- **weight_decay** (float): 权重衰减L2 penalty必须大于等于0。默认值0.0。
- **nesterov** (bool): 启用Nesterov动量。如果使用Nesterov动量必须为正阻尼必须等于0.0。默认值False。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
**输入:**

View File

@ -53,13 +53,13 @@ mindspore.nn.TrainOneStepWithLossScaleCell
继承该类自定义训练网络时,可复用该接口。
**参数:**
**参数:**
**overflow** (bool) - 是否发生溢出。
**overflow** (bool) - 是否发生溢出。
**返回:**
**返回:**
bool溢出状态即输入。
bool溢出状态即输入。
.. py:method:: set_sense_scale(sens)

View File

@ -1 +1 @@
- **loss_scale** (float) - 梯度缩放系数必须大于0。如果 `loss_scale` 是整数,它将被转换为浮点数。通常使用默认值,仅当训练时使用了 `FixedLossScaleManager`,且 `FixedLossScaleManager``drop_overflow_update` 属性配置为False时此值需要与 `FixedLossScaleManager` 中的 `loss_scale` 相同。有关更多详细信息,请参阅 :class`mindspore.FixedLossScaleManager`。默认值1.0。
- **loss_scale** (float) - 梯度缩放系数必须大于0。如果 `loss_scale` 是整数,它将被转换为浮点数。通常使用默认值,仅当训练时使用了 `FixedLossScaleManager`,且 `FixedLossScaleManager``drop_overflow_update` 属性配置为False时此值需要与 `FixedLossScaleManager` 中的 `loss_scale` 相同。有关更多详细信息,请参阅 :class:`mindspore.FixedLossScaleManager`。默认值1.0。

View File

@ -19,7 +19,6 @@ mindspore.nn.probability.distribution.Bernoulli
**异常:**
- **ValueError** - `probs` 中元素小于0或大于1。
- **TypeError** - `dtype` 不是float的子类。
.. py:method:: probs

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.Categorical
==================================================
.. py:class:: mindspore.nn.probability.distribution.Categorical(probs=None, seed=None, dtype=mstype.float32, name='Categorical')
.. py:class:: mindspore.nn.probability.distribution.Categorical(probs=None, seed=None, dtype=mstype.int32, name='Categorical')
分类分布。
离散随机分布,取值范围为 :math:`\{1, 2, ..., k\}` ,概率质量函数为 :math:`P(X = i) = p_i, i = 1, ..., k`

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.Gamma
================================================
.. py:class:: mindspore.nn.probability.distribution.Gamma(concentration=None, rate=None, seed=None, dtype=mstype.float3, name='Gamma')
.. py:class:: mindspore.nn.probability.distribution.Gamma(concentration=None, rate=None, seed=None, dtype=mstype.float32, name='Gamma')
伽马分布Gamma distribution
连续随机分布,取值范围为 :math:`(0, \inf)` ,概率密度函数为