update api zh

This commit is contained in:
yingchen 2021-12-30 19:27:21 +08:00
parent 3f7589a2b6
commit a9da0e7b9c
45 changed files with 181 additions and 83 deletions

View File

@ -130,7 +130,7 @@ mindspore.common.initializer
>>> tensor1 = initializer(XavierUniform(), [1,2,3], mindspore.float32) >>> tensor1 = initializer(XavierUniform(), [1,2,3], mindspore.float32)
>>> tensor2 = initializer('xavier_uniform', [1,2,3], mindspore.float32) >>> tensor2 = initializer('xavier_uniform', [1,2,3], mindspore.float32)
.. py:class:: mindspore.common.initializer.One .. py:class:: mindspore.common.initializer.One(**kwargs)
生成一个值全为1的常量数组用于初始化Tensor。 生成一个值全为1的常量数组用于初始化Tensor。
@ -141,7 +141,7 @@ mindspore.common.initializer
>>> tensor1 = initializer(One(), [1,2,3], mindspore.float32) >>> tensor1 = initializer(One(), [1,2,3], mindspore.float32)
>>> tensor2 = initializer('ones', [1,2,3], mindspore.float32) >>> tensor2 = initializer('ones', [1,2,3], mindspore.float32)
.. py:class:: mindspore.common.initializer.Zero .. py:class:: mindspore.common.initializer.Zero(**kwargs)
生成一个值全为0的常量数组用于初始化Tensor。 生成一个值全为0的常量数组用于初始化Tensor。

View File

@ -1,4 +1,4 @@
.. py:class:: mindspore.train.callback.CheckpointConfig(save_checkpoint_steps=1, save_checkpoint_seconds=0, keep_checkpoint_max=5, keep_checkpoint_per_n_minutes=0, integrated_save=True, async_save=False, saved_network=None, append_info=None, enc_key=None, enc_mode='AES-GCM') .. py:class:: mindspore.train.callback.CheckpointConfig(save_checkpoint_steps=1, save_checkpoint_seconds=0, keep_checkpoint_max=5, keep_checkpoint_per_n_minutes=0, integrated_save=True, async_save=False, saved_network=None, append_info=None, enc_key=None, enc_mode='AES-GCM', exception_save=False)
保存checkpoint时的配置策略。 保存checkpoint时的配置策略。
@ -17,6 +17,7 @@
- **append_info** (list) - 保存在checkpoint文件中的信息。支持"epoch_num"、"step_num"和dict类型。dict的key必须是strdict的value必须是int、float或bool中的一个。默认值None。 - **append_info** (list) - 保存在checkpoint文件中的信息。支持"epoch_num"、"step_num"和dict类型。dict的key必须是strdict的value必须是int、float或bool中的一个。默认值None。
- **enc_key** (Union[None, bytes]) - 用于加密的字节类型key。如果值为None则不需要加密。默认值None。 - **enc_key** (Union[None, bytes]) - 用于加密的字节类型key。如果值为None则不需要加密。默认值None。
- **enc_mode** (str) - 仅当 `enc_key` 不设为None时该参数有效。指定了加密模式目前支持AES-GCM和AES-CBC。默认值AES-GCM。 - **enc_mode** (str) - 仅当 `enc_key` 不设为None时该参数有效。指定了加密模式目前支持AES-GCM和AES-CBC。默认值AES-GCM。
- **exception_save** (bool) - 当有异常发生时是否保存当前checkpoint文件。默认值False。
**异常:** **异常:**

View File

@ -161,6 +161,7 @@
**参数:** **参数:**
- **mode** (str) - 待设置的网络阶段,可选值为"train"或"eval"。 - **mode** (str) - 待设置的网络阶段,可选值为"train"或"eval"。
- train代表训练阶段。 - train代表训练阶段。
- eval代表推理阶段此时 `summary_record` 不会记录summary算子的数据。 - eval代表推理阶段此时 `summary_record` 不会记录summary算子的数据。

View File

@ -35,6 +35,18 @@ mindspore.DatasetHelper
返回动态数据的形状(shape)范围(最小形状(shape),最大形状(shape))。 返回动态数据的形状(shape)范围(最小形状(shape),最大形状(shape))。
**ÑùÀý£º**
>>>from mindspore import DatasetHelper
>>>
>>>train_dataset = create_custom_dataset()
>>># config dynamic shape
>>>dataset.set_dynamic_columns(columns={"data1": [16, None, 83], "data2": [None]})
>>>dataset_helper = DatasetHelper(train_dataset, dataset_sink_mode=True)
>>>
>>>min_shapes, max_shapes = dataset_helper.dynamic_min_max_shapes()
.. py:method:: get_data_info() .. py:method:: get_data_info()
下沉模式下,获取当前批次数据的类型和形状(shape)。通常在数据形状(shape)动态变化的场景使用。 下沉模式下,获取当前批次数据的类型和形状(shape)。通常在数据形状(shape)动态变化的场景使用。
@ -56,6 +68,16 @@ mindspore.DatasetHelper
获取每次迭代的 `sink_size` 获取每次迭代的 `sink_size`
**ÑùÀý£º**
>>>from mindspore import DatasetHelper
>>>
>>>train_dataset = create_custom_dataset()
>>>dataset_helper = DatasetHelper(train_dataset, dataset_sink_mode=True, sink_size=-1)
>>>
>>># if sink_size==-1, then will return the full size of source dataset.
>>>sink_size = dataset_helper.sink_size()
.. py:method:: stop_send() .. py:method:: stop_send()
停止发送数据下沉数据。 停止发送数据下沉数据。
@ -63,3 +85,12 @@ mindspore.DatasetHelper
.. py:method:: types_shapes() .. py:method:: types_shapes()
从当前配置中的数据集获取类型和形状(shape)。 从当前配置中的数据集获取类型和形状(shape)。
**ÑùÀý£º**
>>>from mindspore import DatasetHelper
>>>
>>>train_dataset = create_custom_dataset()
>>>dataset_helper = DatasetHelper(train_dataset, dataset_sink_mode=True)
>>>
>>>types, shapes = dataset_helper.types_shapes()

View File

@ -1,7 +1,7 @@
mindspore.DynamicLossScaleManager mindspore.DynamicLossScaleManager
================================== ==================================
.. py:class:: mindspore.DynamicLossScaleManager(init_loss_scale=16777216, scale_factor=2, scale_window=2000) .. py:class:: mindspore.DynamicLossScaleManager(init_loss_scale=2**24, scale_factor=2, scale_window=2000)
动态调整梯度放大系数的管理器,继承自 :class:`mindspore.LossScaleManager` 动态调整梯度放大系数的管理器,继承自 :class:`mindspore.LossScaleManager`
@ -50,4 +50,4 @@ mindspore.DynamicLossScaleManager
**参数:** **参数:**
- **overflow** (bool) - 表示是否溢出。 **overflow** (bool) - 表示是否溢出。

View File

@ -1,7 +1,7 @@
mindspore.Model mindspore.Model
================ ================
.. py:class:: mindspore.Model(network, loss_fn=None, optimizer=None, metrics=None, eval_network=None, eval_indexes=None, amp_level="O0", acc_level="O0", **kwargs) .. py:class:: mindspore.Model(network, loss_fn=None, optimizer=None, metrics=None, eval_network=None, eval_indexes=None, amp_level="O0", boost_level="O0", **kwargs)
模型训练或推理的高阶接口。 `Model` 会根据用户传入的参数封装可训练或推理的实例。 模型训练或推理的高阶接口。 `Model` 会根据用户传入的参数封装可训练或推理的实例。
@ -24,6 +24,14 @@
通过`kwargs`设置`keep_batchnorm_fp32`可修改batchnorm策略`keep_batchnorm_fp32`必须为bool类型通过`kwargs`设置`loss_scale_manager`可修改梯度放大策略,`loss_scale_manager`必须为:class:`mindspore.LossScaleManager`的子类, 通过`kwargs`设置`keep_batchnorm_fp32`可修改batchnorm策略`keep_batchnorm_fp32`必须为bool类型通过`kwargs`设置`loss_scale_manager`可修改梯度放大策略,`loss_scale_manager`必须为:class:`mindspore.LossScaleManager`的子类,
关于 `amp_level` 详见 `mindpore.build_train_network` 关于 `amp_level` 详见 `mindpore.build_train_network`
- **boost_level** (str) `mindspore.boost` 的可选参数, 为boost模式训练等级。支持[“O0”, “O1”, “O2”]. 默认值: “O0”.
- O0: 无变化。
- O1: 启用boost模式, 性能将提升约20%, 精度保持不变。
- O2: 启用boost模式, 性能将提升约30%, 精度下降约3%。
如果你想设置boost模式, 可以将 `boost_config_dict` 设置为 `boost.py`
**样例:** **样例:**
>>> from mindspore import Model, nn >>> from mindspore import Model, nn
@ -57,7 +65,7 @@
>>> dataset = create_custom_dataset() >>> dataset = create_custom_dataset()
>>> model.train(2, dataset) >>> model.train(2, dataset)
.. py:method:: build(train_dataset=None, valid_dataset=None, sink_size=-1) .. py:method:: build(train_dataset=None, valid_dataset=None, sink_size=-1, epoch=1, jit_config=None)
数据下沉模式下构建计算图和数据图。 数据下沉模式下构建计算图和数据图。
@ -71,6 +79,9 @@
- **valid_dataset** (Dataset) - 一个验证集迭代器。如果定义了 `valid_dataset` ,将会构建验证计算图,此时 `Model` 中的 `metrics` 不能为None。默认值None。 - **valid_dataset** (Dataset) - 一个验证集迭代器。如果定义了 `valid_dataset` ,将会构建验证计算图,此时 `Model` 中的 `metrics` 不能为None。默认值None。
- **sink_size** (int) - 控制每次数据下沉的数据量。默认值:-1。 - **sink_size** (int) - 控制每次数据下沉的数据量。默认值:-1。
- **epoch** (int) - 控制训练轮次。默认值1。 - **epoch** (int) - 控制训练轮次。默认值1。
- **jit_config** (Union[str, str]) 控制jit设置。默认情况下如果设置为None计算图会按默认方式编译。用户可以使用字典自定义编译配置。 例如,可以设置 {'jit_level':'o0'} 来控制 jit 级别。支持控制的数据如下所示。 默认值None。
- jit_level (string): 控制计算图编译优化级别。可选项: o0/o1。默认值: o1。如果设置为o0则计算图编译将会传入类似于图阶段的组合。
**样例:** **样例:**
@ -206,7 +217,7 @@
**参数:** **参数:**
- **predict_data** (Tensor) 预测样本,数据可以是单个张量、张量列表或张量元组。 **predict_data** (Tensor) 预测样本,数据可以是单个张量、张量列表或张量元组。
**返回:** **返回:**
@ -243,7 +254,7 @@
- **epoch** (int) 训练执行轮次。通常每个epoch都会使用全量数据集进行训练。当 `dataset_sink_mode` 设置为True且 `sink_size` 大于零时则每个epoch训练次数为 `sink_size` 而不是数据集的总步数。 - **epoch** (int) 训练执行轮次。通常每个epoch都会使用全量数据集进行训练。当 `dataset_sink_mode` 设置为True且 `sink_size` 大于零时则每个epoch训练次数为 `sink_size` 而不是数据集的总步数。
- **train_dataset** (Dataset) 一个训练数据集迭代器。如果定义了 `loss_fn` ,则数据和标签会被分别传给 `network``loss_fn` 此时数据集需要返回一个元组data, label。如果数据集中有多个数据或者标签可以设置 `loss_fn` 为None并在 `network` 中实现损失函数计算此时数据集返回的所有数据组成的元组data1, data2, data3, ...)会传给 `network` - **train_dataset** (Dataset) 一个训练数据集迭代器。如果定义了 `loss_fn` ,则数据和标签会被分别传给 `network``loss_fn` 此时数据集需要返回一个元组data, label。如果数据集中有多个数据或者标签可以设置 `loss_fn` 为None并在 `network` 中实现损失函数计算此时数据集返回的所有数据组成的元组data1, data2, data3, ...)会传给 `network`
- **callback** (Optional[list[Callback], Callback]) 训练过程中需要执行的回调对象或者回调对象列表。默认值None。 - **callbacks** (Optional[list[Callback], Callback]) 训练过程中需要执行的回调对象或者回调对象列表。默认值None。
- **dataset_sink_mode** (bool) 数据是否直接下沉至处理器进行处理。使用PYNATIVE_MODE模式或CPU处理器时模型训练流程将以非下沉模式执行。默认值True。 - **dataset_sink_mode** (bool) 数据是否直接下沉至处理器进行处理。使用PYNATIVE_MODE模式或CPU处理器时模型训练流程将以非下沉模式执行。默认值True。
- **sink_size** (int) 控制每次数据下沉的数据量。`dataset_sink_mode` 为False时 `sink_size` 无效。如果sink_size=-1则每一次epoch下沉完整数据集。如果sink_size>0则每一次epoch下沉数据量为sink_size的数据集。默认值-1。 - **sink_size** (int) 控制每次数据下沉的数据量。`dataset_sink_mode` 为False时 `sink_size` 无效。如果sink_size=-1则每一次epoch下沉完整数据集。如果sink_size>0则每一次epoch下沉数据量为sink_size的数据集。默认值-1。

View File

@ -1,7 +1,7 @@
mindspore.Parameter mindspore.Parameter
======================== ========================
.. py:class:: mindspore.Parameter(default_input, *args, **kwargs) .. py:class:: mindspore.Parameter(default_input, name=None, requires_grad=True, layerwise_parallel=False, parallel_optimizer=True)
通常表示网络的参数( `Parameter``Tensor` 的子类)。 通常表示网络的参数( `Parameter``Tensor` 的子类)。

View File

@ -5,7 +5,8 @@ mindspore.ParameterTuple
参数元组的类。 参数元组的类。
.. note::该类把网络参数存储到参数元组集合中。 .. note::
该类把网络参数存储到参数元组集合中。
.. py:method:: clone(prefix, init='same') .. py:method:: clone(prefix, init='same')

View File

@ -13,7 +13,8 @@ mindspore.RowTensor
`RowTensor` 只能在 `Cell` 的构造方法中使用。 `RowTensor` 只能在 `Cell` 的构造方法中使用。
目前不支持PyNative模式。 .. note::
目前不支持PyNative模式。
**参数:** **参数:**

View File

@ -7,7 +7,8 @@ mindspore.SparseTensor
`SparseTensor` 只能在 `Cell` 的构造方法中使用。 `SparseTensor` 只能在 `Cell` 的构造方法中使用。
目前不支持PyNative模式。 .. note::
目前不支持PyNative模式。
对于稠密张量,其 `SparseTensor(indices, values, dense_shape)` 具有 `dense[indices[i]] = values[i]` 对于稠密张量,其 `SparseTensor(indices, values, dense_shape)` 具有 `dense[indices[i]] = values[i]`

View File

@ -12,7 +12,7 @@ mindspore.Tensor
- **shape** (Union[tuple, list, int]) - 用于定义该Tensor的形状。如果指定了`input_data`则无需设置该参数。默认值None。 - **shape** (Union[tuple, list, int]) - 用于定义该Tensor的形状。如果指定了`input_data`则无需设置该参数。默认值None。
- **init** (Initializer) - 用于在并行模式中延迟Tensor的数据的初始化如果指定该参数`dtype``shape`也必须被指定。不推荐在非自动并行之外的场景下使用该接口。只有当调用`Tensor.init_data`时,才会使用指定的`init`来初始化Tensor数据。默认值None。 - **init** (Initializer) - 用于在并行模式中延迟Tensor的数据的初始化如果指定该参数`dtype``shape`也必须被指定。不推荐在非自动并行之外的场景下使用该接口。只有当调用`Tensor.init_data`时,才会使用指定的`init`来初始化Tensor数据。默认值None。
**返回** **输出**
Tensor。 Tensor。

View File

@ -17,7 +17,7 @@ mindspore.nn.Accuracy
- **eval_type** (str) - 评估的数据集的类型,支持'classification'和'multilabel'。'classification'为单标签分类场景,'multilabel'为多标签分类场景。 - **eval_type** (str) - 评估的数据集的类型,支持'classification'和'multilabel'。'classification'为单标签分类场景,'multilabel'为多标签分类场景。
默认值:'classification'。 默认值:'classification'。
**例:** **例:**
>>> import numpy as np >>> import numpy as np
>>> import mindspore >>> import mindspore

View File

@ -1,7 +1,7 @@
mindspore.nn.AdamOffload mindspore.nn.AdamOffload
========================= =========================
.. py:class:: mindspore.nn.AdamOffload(params, learning_rate=1e-3, beta1=0.9, beta2=0.999, eps=1e-08, use_locking=False, use_nesterov=False, weight_decay=0.0, loss_scale=1.0) .. py:class:: mindspore.nn.AdamOffload(params, learning_rate=1e-3, beta1=0.9, beta2=0.999, eps=1e-8, use_locking=False, use_nesterov=False, weight_decay=0.0, loss_scale=1.0)
此优化器在主机CPU上运行Adam优化算法设备上仅执行网络参数的更新最大限度地降低内存成本。虽然会增加性能开销但优化器可以运行更大的模型。 此优化器在主机CPU上运行Adam优化算法设备上仅执行网络参数的更新最大限度地降低内存成本。虽然会增加性能开销但优化器可以运行更大的模型。
@ -19,7 +19,8 @@ mindspore.nn.AdamOffload
:math:`m` 代表第一个矩向量 `moment1` :math:`v` 代表第二个矩向量 `moment2`:math:`g` 代表 `gradients`:math:`l` 代表缩放因子,:math:`\beta_1,\beta_2` 代表 `beta1``beta2`:math:`t` 代表当前step:math:`beta_1^t`:math:`beta_2^t` 代表 `beta1_power``beta2_power`:math:`\alpha` 代表 `learning_rate`:math:`w` 代表 `params`:math:`\epsilon` 代表 `eps` :math:`m` 代表第一个矩向量 `moment1` :math:`v` 代表第二个矩向量 `moment2`:math:`g` 代表 `gradients`:math:`l` 代表缩放因子,:math:`\beta_1,\beta_2` 代表 `beta1``beta2`:math:`t` 代表当前step:math:`beta_1^t`:math:`beta_2^t` 代表 `beta1_power``beta2_power`:math:`\alpha` 代表 `learning_rate`:math:`w` 代表 `params`:math:`\epsilon` 代表 `eps`
.. note::此优化器目前仅支持图模式。 .. note::
此优化器目前仅支持图模式。
.. include:: mindspore.nn.optim_note_weight_decay.rst .. include:: mindspore.nn.optim_note_weight_decay.rst

View File

@ -1,7 +1,7 @@
mindspore.nn.AdamWeightDecay mindspore.nn.AdamWeightDecay
=============================== ===============================
.. py:class:: mindspore.nn.AdamWeightDecay(params, learning_rate=1e-3, beta1=0.9, beta2=0.999, eps=1e-06, weight_decay=0.0) .. py:class:: mindspore.nn.AdamWeightDecay(params, learning_rate=1e-3, beta1=0.9, beta2=0.999, eps=1e-6, weight_decay=0.0)
实现权重衰减Adam算法。 实现权重衰减Adam算法。
@ -50,11 +50,11 @@ mindspore.nn.AdamWeightDecay
**输入:** **输入:**
- **gradients** (tuple[Tensor]) - `params` 的梯度shape与 `params` 相同。 **gradients** (tuple[Tensor]) - `params` 的梯度shape与 `params` 相同。
**输出:** **输出:**
- **tuple** [bool]所有元素都为True。 **tuple** [bool]所有元素都为True。
**异常:** **异常:**

View File

@ -61,5 +61,5 @@ mindspore.nn.CellList
**参数:** **参数:**
**index** (int) - 给定的列表索引。 - **index** (int) - 给定的列表索引。
**cell** (Cell) - 要插入的Cell子类。 - **cell** (Cell) - 要插入的Cell子类。

View File

@ -1,7 +1,7 @@
mindspore.nn.DistributedGradReducer mindspore.nn.DistributedGradReducer
=================================== ===================================
.. py:class:: mindspore.nn.DistributedGradReducer(parameters, mean=True, degree=None, fusion_type=1, group='hccl_world_group') .. py:class:: mindspore.nn.DistributedGradReducer(parameters, mean=True, degree=None, fusion_type=1, group=GlobalComm.WORLD_COMM_GROUP)
分布式优化器。 分布式优化器。
@ -9,10 +9,10 @@ mindspore.nn.DistributedGradReducer
**参数:** **参数:**
- **parameters** (list) - 需要更新的参数。 - **parameters** (list) - 需要更新的参数。
- **mean** (bool) - 当mean为True时对AllReduce之后的梯度求均值。默认值False。 - **mean** (bool) - 当mean为True时对AllReduce之后的梯度求均值。默认值False。
- **degree** (int) - 平均系数通常等于设备编号。默认值None。 - **degree** (int) - 平均系数通常等于设备编号。默认值None。
- **fusion_type** (int) - AllReduce算子的融合类型。默认值1。 - **fusion_type** (int) - AllReduce算子的融合类型。默认值1。
**异常:** **异常:**

View File

@ -30,7 +30,7 @@ mindspore.nn.FTRL
.. include:: mindspore.nn.optim_note_weight_decay.rst .. include:: mindspore.nn.optim_note_weight_decay.rst
**参数:** **参数:**
- **params** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params" - **params** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"
@ -57,7 +57,7 @@ mindspore.nn.FTRL
**输入:** **输入:**
- **grads** (tuple[Tensor]) - 优化器中 `params` 的梯度shape与优化器中的 `params` 相同。 **grads** (tuple[Tensor]) - 优化器中 `params` 的梯度shape与优化器中的 `params` 相同。
**输出:** **输出:**

View File

@ -1,7 +1,7 @@
mindspore.nn.GELU mindspore.nn.GELU
================== ==================
.. py:class:: mindspore.nn.GELU .. py:class:: mindspore.nn.GELU(approximate=True)
高斯误差线性单元激活函数Gaussian error linear unit activation function 高斯误差线性单元激活函数Gaussian error linear unit activation function
@ -17,9 +17,17 @@ mindspore.nn.GELU
GELU相关图参见 `GELU <https://en.wikipedia.org/wiki/Activation_function#/media/File:Activation_gelu.png>`_ GELU相关图参见 `GELU <https://en.wikipedia.org/wiki/Activation_function#/media/File:Activation_gelu.png>`_
**参数:**
**approximate** (bool): 是否启用approximation默认值True。如果approximate的值为True则高斯误差线性激活函数为:
:math:`0.5 * x * (1 + tanh(sqrt(2 / pi) * (x + 0.044715 * x^3)))`
否则为: :math:`x * P(X <= x) = 0.5 * x * (1 + erf(x / sqrt(2)))`, where P(X) ~ N(0, 1) 。
**输入:** **输入:**
- **x** Tensor - 用于计算GELU的Tensor。数据类型为float16或float32。shape是 :math:`(N,*)` :math:`*` 表示任意的附加维度数。 **x** Tensor - 用于计算GELU的Tensor。数据类型为float16或float32。shape是 :math:`(N,*)` :math:`*` 表示任意的附加维度数。
**输出:** **输出:**
@ -27,7 +35,7 @@ mindspore.nn.GELU
**异常:** **异常:**
- **TypeError** - `x` 的数据类型既不是float16也不是float32。 **TypeError** - `x` 的数据类型既不是float16也不是float32。
**支持平台:** **支持平台:**

View File

@ -35,7 +35,6 @@ mindspore.nn.L1Loss
**异常:** **异常:**
**ValueError** - `reduction` 不为"mean"、"sum"或"none"。 **ValueError** - `reduction` 不为"mean"、"sum"或"none"。
**ValueError** - `logits``labels` 的shape不同且不能互相广播。
**支持平台:** **支持平台:**

View File

@ -29,7 +29,7 @@ mindspore.nn.LazyAdam
**参数:** **参数:**
- **param** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params" - **params** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"
.. include:: mindspore.nn.optim_group_param.rst .. include:: mindspore.nn.optim_group_param.rst
.. include:: mindspore.nn.optim_group_lr.rst .. include:: mindspore.nn.optim_group_lr.rst

View File

@ -46,7 +46,7 @@ mindspore.nn.NaturalExpDecayLR
``Ascend`` ``GPU`` ``CPU`` ``Ascend`` ``GPU`` ``CPU``
**样例:** **样例:**
>>> import mindspore >>> import mindspore
>>> from mindspore import Tensor, nn >>> from mindspore import Tensor, nn

View File

@ -16,7 +16,7 @@ mindspore.nn.Optimizer
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst .. include:: mindspore.nn.optim_arg_dynamic_lr.rst
- **parameters (Union[list[Parameter], list[dict]])** - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params" - **parameters** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"
.. include:: mindspore.nn.optim_group_param.rst .. include:: mindspore.nn.optim_group_param.rst
.. include:: mindspore.nn.optim_group_lr.rst .. include:: mindspore.nn.optim_group_lr.rst

View File

@ -5,12 +5,12 @@
.. note:: .. note::
micro_size必须大于或等于流水线stage的个数。 micro_size必须大于或等于流水线stage的个数。
** 参数:** ** 参数:**
- **network** (Cell) - 要修饰的目标网络。 - **network** (Cell) - 要修饰的目标网络。
- **micro_size** (int) - MicroBatch大小。 - **micro_size** (int) - MicroBatch大小。
**例:** **例:**
>>> net = Net() >>> net = Net()
>>> net = PipelineCell(net, 4) >>> net = PipelineCell(net, 4)

View File

@ -26,7 +26,7 @@ mindspore.nn.ProximalAdagrad
**参数:** **参数:**
- **param** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params" - **params** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"
.. include:: mindspore.nn.optim_group_param.rst .. include:: mindspore.nn.optim_group_param.rst
.. include:: mindspore.nn.optim_group_lr.rst .. include:: mindspore.nn.optim_group_lr.rst

View File

@ -35,9 +35,7 @@ mindspore.nn.SmoothL1Loss
**异常:** **异常:**
- **TypeError** - `beta` 不是float。 - **TypeError** - `beta` 不是float。
- **TypeError** - `logits``labels` 不是Tensor。
- **TypeError** - `logits``labels` 的数据类型既不是float16也不是float32。 - **TypeError** - `logits``labels` 的数据类型既不是float16也不是float32。
- **TypeError** - `logits``labels` 的数据类型不相同。
- **ValueError** - `beta` 小于或等于0。 - **ValueError** - `beta` 小于或等于0。
- **ValueError** - `logits` 的shape与 `labels` 不同。 - **ValueError** - `logits` 的shape与 `labels` 不同。

View File

@ -10,7 +10,7 @@ mindspore.nn.TopKCategoricalAccuracy
**参数:** **参数:**
- **k (int)** - 指定要计算的top-k分类正确率。 **k (int)** - 指定要计算的top-k分类正确率。
**异常:** **异常:**

View File

@ -82,25 +82,27 @@ mindspore.nn.TrainOneStepWithLossScaleCell
溢出检测的目标过程执行完成后,获取溢出结果。继承该类自定义训练网络时,可复用该接口。 溢出检测的目标过程执行完成后,获取溢出结果。继承该类自定义训练网络时,可复用该接口。
**输入** **参数**
- **status** (object) - 用于检测溢出的状态实例。 - **status** (object) - 用于检测溢出的状态实例。
- **compute_output** - 对特定计算过程进行溢出检测时,将 `compute_output` 设置为该计算过程的输出,以确保在执行计算之前获取了 `status` - **compute_output** - 对特定计算过程进行溢出检测时,将 `compute_output` 设置为该计算过程的输出,以确保在执行计算之前获取了 `status`
**输出** **返回**
bool是否发生溢出。 bool是否发生溢出。
.. py:method:: process_loss_scale(overflow) .. py:method:: process_loss_scale(overflow)
根据溢出状态计算梯度放大系数。继承该类自定义训练网络时,可复用该接口。 根据溢出状态计算梯度放大系数。
**输入:** 继承该类自定义训练网络时,可复用该接口。
- **overflow** (bool) - 是否发生溢出。 **参数:**
**输出:** **overflow** (bool) - 是否发生溢出。
**返回:**
bool溢出状态即输入。 bool溢出状态即输入。
@ -109,9 +111,9 @@ mindspore.nn.TrainOneStepWithLossScaleCell
如果使用了Tensor类型的 `scale_sense` ,可调用此函数修改它的值。 如果使用了Tensor类型的 `scale_sense` ,可调用此函数修改它的值。
**输入** **参数**
- **sens** Tensor- 新的梯度放大系数其shape和类型需要与原始 `scale_sense` 相同。 **sens** Tensor- 新的梯度放大系数其shape和类型需要与原始 `scale_sense` 相同。
.. py:method:: start_overflow_check(pre_cond, compute_input) .. py:method:: start_overflow_check(pre_cond, compute_input)
@ -119,11 +121,11 @@ mindspore.nn.TrainOneStepWithLossScaleCell
指定参数 `pre_cond``compute_input` ,以确保在正确的时间清除溢出状态。以当前接口为例,我们需要在损失函数计算后进行清除状态,在梯度计算过程中检测溢出。在这种情况下,`pre_cond` 应为损失函数的输出,而 `compute_input` 应为梯度计算函数的输入。继承该类自定义训练网络时,可复用该接口。 指定参数 `pre_cond``compute_input` ,以确保在正确的时间清除溢出状态。以当前接口为例,我们需要在损失函数计算后进行清除状态,在梯度计算过程中检测溢出。在这种情况下,`pre_cond` 应为损失函数的输出,而 `compute_input` 应为梯度计算函数的输入。继承该类自定义训练网络时,可复用该接口。
**输入** **参数**
- **pre_cond** (Tensor) -启动溢出检测的先决条件。它决定溢出状态清除和先前处理的执行顺序。它确保函数 `start_overflow` 在执行完先决条件后清除状态。 - **pre_cond** (Tensor) -启动溢出检测的先决条件。它决定溢出状态清除和先前处理的执行顺序。它确保函数 `start_overflow` 在执行完先决条件后清除状态。
- **compute_input** (object) - 后续运算的输入。需要对特定的计算过程进行溢出检测。将 `compute_input` 设置这一计算过程的输入,以确保在执行该计算之前清除了溢出状态。 - **compute_input** (object) - 后续运算的输入。需要对特定的计算过程进行溢出检测。将 `compute_input` 设置这一计算过程的输入,以确保在执行该计算之前清除了溢出状态。
**输出** **返回**
- **Tuple** [object, object]GPU后端的第一个值为False而其他后端的第一个值是NPUAllocFloatStatus的实例。该值用于在 `get_overflow_status` 期间检测溢出。第二个值与 `compute_input` 的输入相同,用于控制执行序。 **Tuple** [object, object]GPU后端的第一个值为False而其他后端的第一个值是NPUAllocFloatStatus的实例。该值用于在 `get_overflow_status` 期间检测溢出。第二个值与 `compute_input` 的输入相同,用于控制执行序。

View File

@ -23,23 +23,23 @@ mindspore.nn.Conv2d
- **kernel_size** (`Union[int, tuple[int]]`) 指定二维卷积窗口的高度和宽度。数据类型为整型或2个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。2个整数的tuple分别表示卷积核的高度和宽度。 - **kernel_size** (`Union[int, tuple[int]]`) 指定二维卷积窗口的高度和宽度。数据类型为整型或2个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。2个整数的tuple分别表示卷积核的高度和宽度。
- **stride** (`Union[int, tuple[int]]`) 步长大小。数据类型为整型或2个整型的tuple。一个整数表示在高度和宽度方向的滑动步长均为该值。2个整数的tuple分别表示在高度和宽度方向的滑动步长。默认值1。 - **stride** (`Union[int, tuple[int]]`) 步长大小。数据类型为整型或2个整型的tuple。一个整数表示在高度和宽度方向的滑动步长均为该值。2个整数的tuple分别表示在高度和宽度方向的滑动步长。默认值1。
- **pad_mode** (`str`) 指定填充模式。可选值为“same”“valid”“pad”。默认值“same”。 - **pad_mode** (`str`) 指定填充模式。可选值为“same”“valid”“pad”。默认值“same”。
- **same**:采用补全方式。输出的高度和宽度与输入 `x` 一致。填充总数将在水平和垂直方向进行计算。并尽可能均匀分布到顶部、底部、左侧和右侧。否则,最后一次将从底部和右侧进行额外的填充。若设置该模式,`padding` 必须为0。 - **same**:采用补全方式。输出的高度和宽度与输入 `x` 一致。填充总数将在水平和垂直方向进行计算。并尽可能均匀分布到顶部、底部、左侧和右侧。否则,最后一次将从底部和右侧进行额外的填充。若设置该模式,`padding` 必须为0。
- **valid**:采用丢弃方式。在不填充的前提下返回可能大的高度和宽度的输出。多余的像素会被丢弃。若设置该模式,`padding` 必须为0。 - **valid**:采用丢弃方式。在不填充的前提下返回可能大的高度和宽度的输出。多余的像素会被丢弃。若设置该模式,`padding` 必须为0。
- **pad**:输入 `x` 两侧的隐式填充。`padding` 的数量将填充到输入Tensor边框上。`padding` 必须大于或等于0。 - **pad**:输入 `x` 两侧的隐式填充。`padding` 的数量将填充到输入Tensor边框上。`padding` 必须大于或等于0。
- **padding** (`Union[int, tuple[int]]`) 输入 `x` 两侧的隐式填充。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple那么上、下、左、右的填充分别等于 `padding[0]``padding[1]``padding[2]``padding[3]` 。默认值0。 - **padding** (`Union[int, tuple[int]]`) 输入 `x` 两侧的隐式填充。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple那么上、下、左、右的填充分别等于 `padding[0]``padding[1]``padding[2]``padding[3]` 。默认值0。
- **dilation** (`Union[int, tuple[int]]`) 指定用于扩张卷积的扩张速率。数据类型为整型或具有2个整型的tuple。如果设置 :math:`k > 1` ,则每个采样位置将跳过 :math:`k-1` 个像素。其值必须大于或等于1并以输入的高度和宽度为边界。默认值1。 - **dilation** (`Union[int, tuple[int]]`) 指定用于扩张卷积的扩张速率。数据类型为整型或具有2个整型的tuple。如果设置 :math:`k > 1` ,则每个采样位置将跳过 :math:`k-1` 个像素。其值必须大于或等于1并以输入的高度和宽度为边界。默认值1。
- **group** (`int`) 将过滤器分组, `in_channels``out_channels` 必须被组数整除。如果组数等于 `in_channels``out_channels` 这个二维卷积层也被称为二维深度卷积层。默认值1. - **group** (`int`) 将过滤器分组, `in_channels``out_channels` 必须被组数整除。如果组数等于 `in_channels``out_channels` 这个二维卷积层也被称为二维深度卷积层。默认值1.
- **has_bias** (`bool`) 指定图层是否使用偏置向量。默认值False。 - **has_bias** (`bool`) 指定图层是否使用偏置向量。默认值False。
- **weight_init** (`Union[Tensor, str, Initializer, numbers.Number]`) 卷积核的初始化方法。它可以是Tensorstr初始化实例或numbers.Number。当使用str时可选“TruncatedNormal”“Normal”“Uniform”“HeUniform”和“XavierUniform”分布以及常量“One”和“Zero”分布的值可接受别名“ xavier_uniform”“ he_uniform”“ ones”和“ zeros”。上述字符串大小写均可。更多细节请参考Initializer的值。默认值“normal”。 - **weight_init** (`Union[Tensor, str, Initializer, numbers.Number]`) 卷积核的初始化方法。它可以是Tensorstr初始化实例或numbers.Number。当使用str时可选“TruncatedNormal”“Normal”“Uniform”“HeUniform”和“XavierUniform”分布以及常量“One”和“Zero”分布的值可接受别名“ xavier_uniform”“ he_uniform”“ ones”和“ zeros”。上述字符串大小写均可。更多细节请参考Initializer的值。默认值“normal”。
- **bias_init** (`Union[Tensor, str, Initializer, numbers.Number]`) 偏置向量的初始化方法。可以使用的初始化方法和字符串与“weight_init”相同。更多细节请参考Initializer的值。默认值“zeros”。 - **bias_init** (`Union[Tensor, str, Initializer, numbers.Number]`) 偏置向量的初始化方法。可以使用的初始化方法和字符串与“weight_init”相同。更多细节请参考Initializer的值。默认值“zeros”。
- **data_format** (`str`) 数据格式的可选值有“NHWC”“NCHW”。默认值“NCHW”。 - **data_format** (`str`) 数据格式的可选值有“NHWC”“NCHW”。默认值“NCHW”。
**输入:** **输入:**
- **x** (Tensor) - Shape为 :math:`(N, C_{in}, H_{in}, W_{in})` 或者 :math:`(N, H_{in}, W_{in}, C_{in})` 的Tensor。 **x** (Tensor) - Shape为 :math:`(N, C_{in}, H_{in}, W_{in})` 或者 :math:`(N, H_{in}, W_{in}, C_{in})` 的Tensor。
**输出:** **输出:**

View File

@ -28,13 +28,14 @@ mindspore.nn.probability.bijector.Bijector
- **value** (Tensor) - 输入数据。 - **value** (Tensor) - 输入数据。
- **para** (Tensor) - Bijector参数。 - **para** (Tensor) - Bijector参数。
- **kwargs** (dict) - 函数需要的关键字参数字典。
.. py:method:: construct(name, *args, **kwargs) .. py:method:: construct(name, *args, **kwargs)
重写Cell中的 `construct` 重写Cell中的 `construct`
.. note:: .. note::
支持的函数包括:'forward'、'inverse'、'forward_log_jacobian'、'inverse_log_jacobian'。 支持的函数包括:'forward'、'inverse'、'forward_log_jacobian'、'inverse_log_jacobian'。
**参数:** **参数:**

View File

@ -7,7 +7,7 @@ mindspore.nn.probability.bijector.Invert
**参数:** **参数:**
- **Bijector** (Bijector) - 基础BijectorBase Bijector - **bijector** (Bijector) - 基础BijectorBase Bijector
- **name** (str) - Bijector名称。默认值""。当name设置为""时,它实际上是'Invert' + Bijector.name。 - **name** (str) - Bijector名称。默认值""。当name设置为""时,它实际上是'Invert' + Bijector.name。
**支持平台:** **支持平台:**

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.bijector.PowerTransform mindspore.nn.probability.bijector.PowerTransform
================================================= =================================================
.. py:class:: mindspore.nn.probability.bijector.PowerTransform(power=0.0, name='PowerTransform') .. py:class:: mindspore.nn.probability.bijector.PowerTransform(power=0., name='PowerTransform')
乘方BijectorPower Bijector 乘方BijectorPower Bijector
此Bijector执行如下操作 此Bijector执行如下操作

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.Bernoulli mindspore.nn.probability.distribution.Bernoulli
================================================ ================================================
.. py:class:: mindspore.nn.probability.distribution.Bernoulli(probs=None, seed=None, dtype=mindspore.int32, name='Bernoulli') .. py:class:: mindspore.nn.probability.distribution.Bernoulli(probs=None, seed=None, dtype=mstype.int32, name='Bernoulli')
伯努利分布Bernoulli Distribution 伯努利分布Bernoulli Distribution

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.Beta mindspore.nn.probability.distribution.Beta
================================================ ================================================
.. py:class:: mindspore.nn.probability.distribution.Beta(concentration1=None, concentration0=None, seed=None, dtype=mindspore.float32, name='Beta') .. py:class:: mindspore.nn.probability.distribution.Beta(concentration1=None, concentration0=None, seed=None, dtype=mstype.float32, name='Beta')
贝塔分布Beta Distribution 贝塔分布Beta Distribution

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.Categorical mindspore.nn.probability.distribution.Categorical
================================================== ==================================================
.. py:class:: mindspore.nn.probability.distribution.Categorical(probs=None, seed=None, dtype=mindspore.int32, name='Categorical') .. py:class:: mindspore.nn.probability.distribution.Categorical(probs=None, seed=None, dtype=mstype.float32, name='Categorical')
分类分布。 分类分布。

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.Cauchy mindspore.nn.probability.distribution.Cauchy
================================================ ================================================
.. py:class:: mindspore.nn.probability.distribution.Cauchy(loc=None, scale=None, seed=None, dtype=mindspore.float32, name='Cauchy') .. py:class:: mindspore.nn.probability.distribution.Cauchy(loc=None, scale=None, seed=None, dtype=mstype.float32, name='Cauchy')
柯西分布Cauchy distribution 柯西分布Cauchy distribution

View File

@ -29,6 +29,9 @@ mindspore.nn.probability.distribution.Distribution
- **args** (list) - 传递给子类的位置参数列表。 - **args** (list) - 传递给子类的位置参数列表。
- **kwargs** (dict) - 传递给子类的关键字参数字典。 - **kwargs** (dict) - 传递给子类的关键字参数字典。
.. note::
可以通过 `args``kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
.. py:method:: construct(name, *args, **kwargs) .. py:method:: construct(name, *args, **kwargs)
重写Cell中的 `construct` 重写Cell中的 `construct`
@ -53,6 +56,9 @@ mindspore.nn.probability.distribution.Distribution
- **args** (list) - 传递给子类的位置参数列表。 - **args** (list) - 传递给子类的位置参数列表。
- **kwargs** (dict) - 传递给子类的关键字参数字典。 - **kwargs** (dict) - 传递给子类的关键字参数字典。
.. note::
Distribution b的 `dist_spec_args` 必须通过 `args``kwargs` 传递给函数。 传入Distribution a的 `dist_spec_args` 是可选的。
.. py:method:: entropy(*args, **kwargs) .. py:method:: entropy(*args, **kwargs)
计算熵。 计算熵。
@ -62,6 +68,9 @@ mindspore.nn.probability.distribution.Distribution
- **args** (list) - 传递给子类的位置参数列表。 - **args** (list) - 传递给子类的位置参数列表。
- **kwargs** (dict) - 传递给子类的关键字参数字典。 - **kwargs** (dict) - 传递给子类的关键字参数字典。
.. note::
可以通过 `args``kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
.. py:method:: get_dist_args(*args, **kwargs) .. py:method:: get_dist_args(*args, **kwargs)
检查默认参数的可用性和有效性。 检查默认参数的可用性和有效性。
@ -88,6 +97,9 @@ mindspore.nn.probability.distribution.Distribution
- **args** (list) - 传递给子类的位置参数列表。 - **args** (list) - 传递给子类的位置参数列表。
- **kwargs** (dict) - 传递给子类的关键字参数字典。 - **kwargs** (dict) - 传递给子类的关键字参数字典。
.. note::
Distribution b的 `dist_spec_args` 必须通过 `args``kwargs` 传递给函数。 传入Distribution a的 `dist_spec_args` 是可选的。
.. py:method:: log_cdf(value, *args, **kwargs) .. py:method:: log_cdf(value, *args, **kwargs)
计算给定值对于的cdf的对数。 计算给定值对于的cdf的对数。
@ -98,6 +110,9 @@ mindspore.nn.probability.distribution.Distribution
- **args** (list) - 传递给子类的位置参数列表。 - **args** (list) - 传递给子类的位置参数列表。
- **kwargs** (dict) - 传递给子类的关键字参数字典。 - **kwargs** (dict) - 传递给子类的关键字参数字典。
.. note::
可以通过 `args``kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
.. py:method:: log_prob(value, *args, **kwargs) .. py:method:: log_prob(value, *args, **kwargs)
计算给定值对应的概率的对数pdf或pmf 计算给定值对应的概率的对数pdf或pmf
@ -108,6 +123,9 @@ mindspore.nn.probability.distribution.Distribution
- **args** (list) - 传递给子类的位置参数列表。 - **args** (list) - 传递给子类的位置参数列表。
- **kwargs** (dict) - 传递给子类的关键字参数字典。 - **kwargs** (dict) - 传递给子类的关键字参数字典。
.. note::
可以通过 `args``kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
.. py:method:: log_survival(value, *args, **kwargs) .. py:method:: log_survival(value, *args, **kwargs)
计算给定值对应的剩余函数的对数。 计算给定值对应的剩余函数的对数。
@ -118,6 +136,9 @@ mindspore.nn.probability.distribution.Distribution
- **args** (list) - 传递给子类的位置参数列表。 - **args** (list) - 传递给子类的位置参数列表。
- **kwargs** (dict) - 传递给子类的关键字参数字典。 - **kwargs** (dict) - 传递给子类的关键字参数字典。
.. note::
可以通过 `args``kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
.. py:method:: mean(*args, **kwargs) .. py:method:: mean(*args, **kwargs)
评估平均值。 评估平均值。
@ -127,6 +148,9 @@ mindspore.nn.probability.distribution.Distribution
- **args** (list) - 传递给子类的位置参数列表。 - **args** (list) - 传递给子类的位置参数列表。
- **kwargs** (dict) - 传递给子类的关键字参数字典。 - **kwargs** (dict) - 传递给子类的关键字参数字典。
.. note::
可以通过 `args``kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
.. py:method:: mode(*args, **kwargs) .. py:method:: mode(*args, **kwargs)
评估模式。 评估模式。
@ -136,6 +160,9 @@ mindspore.nn.probability.distribution.Distribution
- **args** (list) - 传递给子类的位置参数列表。 - **args** (list) - 传递给子类的位置参数列表。
- **kwargs** (dict) - 传递给子类的关键字参数字典。 - **kwargs** (dict) - 传递给子类的关键字参数字典。
.. note::
可以通过 `args``kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
.. py:method:: prob(value, *args, **kwargs) .. py:method:: prob(value, *args, **kwargs)
评估给定值下的概率Probability Density Function或Probability Mass Function 评估给定值下的概率Probability Density Function或Probability Mass Function
@ -146,6 +173,9 @@ mindspore.nn.probability.distribution.Distribution
- **args** (list) - 传递给子类的位置参数列表。 - **args** (list) - 传递给子类的位置参数列表。
- **kwargs** (dict) - 传递给子类的关键字参数字典。 - **kwargs** (dict) - 传递给子类的关键字参数字典。
.. note::
可以通过 `args``kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
.. py:method:: sample(*args, **kwargs) .. py:method:: sample(*args, **kwargs)
采样函数。 采样函数。
@ -156,6 +186,9 @@ mindspore.nn.probability.distribution.Distribution
- **args** (list) - 传递给子类的位置参数列表。 - **args** (list) - 传递给子类的位置参数列表。
- **kwargs** (dict) - 传递给子类的关键字参数字典。 - **kwargs** (dict) - 传递给子类的关键字参数字典。
.. note::
可以通过 `args``kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
.. py:method:: sd(*args, **kwargs) .. py:method:: sd(*args, **kwargs)
标准差评估。 标准差评估。
@ -165,6 +198,9 @@ mindspore.nn.probability.distribution.Distribution
- **args** (list) - 传递给子类的位置参数列表。 - **args** (list) - 传递给子类的位置参数列表。
- **kwargs** (dict) - 传递给子类的关键字参数字典。 - **kwargs** (dict) - 传递给子类的关键字参数字典。
.. note::
可以通过 `args``kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
.. py:method:: survival_function(value, *args, **kwargs) .. py:method:: survival_function(value, *args, **kwargs)
计算给定值对应的剩余函数。 计算给定值对应的剩余函数。
@ -175,6 +211,9 @@ mindspore.nn.probability.distribution.Distribution
- **args** (list) - 传递给子类的位置参数列表。 - **args** (list) - 传递给子类的位置参数列表。
- **kwargs** (dict) - 传递给子类的关键字参数字典。 - **kwargs** (dict) - 传递给子类的关键字参数字典。
.. note::
可以通过 `args``kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
.. py:method:: var(*args, **kwargs) .. py:method:: var(*args, **kwargs)
评估方差。 评估方差。
@ -184,3 +223,6 @@ mindspore.nn.probability.distribution.Distribution
- **args** (list) - 传递给子类的位置参数列表。 - **args** (list) - 传递给子类的位置参数列表。
- **kwargs** (dict) - 传递给子类的关键字参数字典。 - **kwargs** (dict) - 传递给子类的关键字参数字典。
.. note::
可以通过 `args``kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.Exponential mindspore.nn.probability.distribution.Exponential
=================================================== ===================================================
.. py:class:: mindspore.nn.probability.distribution.Exponential(rate=None, seed=None, dtype=mindspore.float32, name='Exponential') .. py:class:: mindspore.nn.probability.distribution.Exponential(rate=None, seed=None, dtype=mstype.float32, name='Exponential')
示例类指数分布Exponential Distribution 示例类指数分布Exponential Distribution

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.Gamma mindspore.nn.probability.distribution.Gamma
================================================ ================================================
.. py:class:: mindspore.nn.probability.distribution.Gamma(concentration=None, rate=None, seed=None, dtype=mindspore.float32, name='Gamma') .. py:class:: mindspore.nn.probability.distribution.Gamma(concentration=None, rate=None, seed=None, dtype=mstype.float3, name='Gamma')
伽马分布Gamma distribution 伽马分布Gamma distribution

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.Geometric mindspore.nn.probability.distribution.Geometric
================================================ ================================================
.. py:class:: mindspore.nn.probability.distribution.Geometric(probs=None, seed=None, dtype=mindspore.int32, name='Geometric') .. py:class:: mindspore.nn.probability.distribution.Geometric(probs=None, seed=None, dtype=mstype.int32, name='Geometric')
几何分布Geometric Distribution 几何分布Geometric Distribution

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.Gumbel mindspore.nn.probability.distribution.Gumbel
================================================ ================================================
.. py:class:: mindspore.nn.probability.distribution.Gumbel(loc, scale, seed=0, dtype=mindspore.float32, name='Gumbel') .. py:class:: mindspore.nn.probability.distribution.Gumbel(loc, scale, seed=0, dtype=mstype.float32, name='Gumbel')
耿贝尔分布Gumbel distribution 耿贝尔分布Gumbel distribution

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.LogNormal mindspore.nn.probability.distribution.LogNormal
================================================ ================================================
.. py:class:: mindspore.nn.probability.distribution.LogNormal(loc=None, scale=None, seed=0, dtype=mindspore.float32, name='LogNormal') .. py:class:: mindspore.nn.probability.distribution.LogNormal(loc=None, scale=None, seed=0, dtype=mstype.float32, name='LogNormal')
对数正态分布LogNormal distribution 对数正态分布LogNormal distribution
对数正态分布是随机变量的连续概率分布,变量的对数为正态分布。它被构造为正态分布的指数变换。 对数正态分布是随机变量的连续概率分布,变量的对数为正态分布。它被构造为正态分布的指数变换。

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.Logistic mindspore.nn.probability.distribution.Logistic
================================================ ================================================
.. py:class:: mindspore.nn.probability.distribution.Logistic(loc=None, scale=None, seed=None, dtype=mindspore.float32, name='Logistic') .. py:class:: mindspore.nn.probability.distribution.Logistic(loc=None, scale=None, seed=None, dtype=mstype.float32, name='Logistic')
逻辑斯谛分布Logistic distribution 逻辑斯谛分布Logistic distribution

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.Normal mindspore.nn.probability.distribution.Normal
================================================ ================================================
.. py:class:: mindspore.nn.probability.distribution.Normal(mean=None, sd=None, seed=None, dtype=mindspore.float32, name='Normal') .. py:class:: mindspore.nn.probability.distribution.Normal(mean=None, sd=None, seed=None, dtype=mstype.float32, name='Normal')
正态分布Normal distribution 正态分布Normal distribution

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.Poisson mindspore.nn.probability.distribution.Poisson
================================================ ================================================
.. py:class:: mindspore.nn.probability.distribution.Poisson(rate=None, seed=None, dtype=mindspore.float32, name='Poisson') .. py:class:: mindspore.nn.probability.distribution.Poisson(rate=None, seed=None, dtype=mstype.float32, name='Poisson')
泊松分布Poisson Distribution 泊松分布Poisson Distribution

View File

@ -1,7 +1,7 @@
mindspore.nn.probability.distribution.Uniform mindspore.nn.probability.distribution.Uniform
================================================ ================================================
.. py:class:: mindspore.nn.probability.distribution.Uniform(low=None, high=None, seed=None, dtype=mindspore.float32, name='Uniform') .. py:class:: mindspore.nn.probability.distribution.Uniform(low=None, high=None, seed=None, dtype=mstype.float32, name='Uniform')
示例类均匀分布Uniform Distribution 示例类均匀分布Uniform Distribution