forked from mindspore-Ecosystem/mindspore
update api zh
This commit is contained in:
parent
3f7589a2b6
commit
a9da0e7b9c
|
@ -130,7 +130,7 @@ mindspore.common.initializer
|
|||
>>> tensor1 = initializer(XavierUniform(), [1,2,3], mindspore.float32)
|
||||
>>> tensor2 = initializer('xavier_uniform', [1,2,3], mindspore.float32)
|
||||
|
||||
.. py:class:: mindspore.common.initializer.One
|
||||
.. py:class:: mindspore.common.initializer.One(**kwargs)
|
||||
|
||||
生成一个值全为1的常量数组用于初始化Tensor。
|
||||
|
||||
|
@ -141,7 +141,7 @@ mindspore.common.initializer
|
|||
>>> tensor1 = initializer(One(), [1,2,3], mindspore.float32)
|
||||
>>> tensor2 = initializer('ones', [1,2,3], mindspore.float32)
|
||||
|
||||
.. py:class:: mindspore.common.initializer.Zero
|
||||
.. py:class:: mindspore.common.initializer.Zero(**kwargs)
|
||||
|
||||
生成一个值全为0的常量数组用于初始化Tensor。
|
||||
|
||||
|
|
|
@ -1,4 +1,4 @@
|
|||
.. py:class:: mindspore.train.callback.CheckpointConfig(save_checkpoint_steps=1, save_checkpoint_seconds=0, keep_checkpoint_max=5, keep_checkpoint_per_n_minutes=0, integrated_save=True, async_save=False, saved_network=None, append_info=None, enc_key=None, enc_mode='AES-GCM')
|
||||
.. py:class:: mindspore.train.callback.CheckpointConfig(save_checkpoint_steps=1, save_checkpoint_seconds=0, keep_checkpoint_max=5, keep_checkpoint_per_n_minutes=0, integrated_save=True, async_save=False, saved_network=None, append_info=None, enc_key=None, enc_mode='AES-GCM', exception_save=False)
|
||||
|
||||
保存checkpoint时的配置策略。
|
||||
|
||||
|
@ -17,6 +17,7 @@
|
|||
- **append_info** (list) - 保存在checkpoint文件中的信息。支持"epoch_num"、"step_num"和dict类型。dict的key必须是str,dict的value必须是int、float或bool中的一个。默认值:None。
|
||||
- **enc_key** (Union[None, bytes]) - 用于加密的字节类型key。如果值为None,则不需要加密。默认值:None。
|
||||
- **enc_mode** (str) - 仅当 `enc_key` 不设为None时,该参数有效。指定了加密模式,目前支持AES-GCM和AES-CBC。默认值:AES-GCM。
|
||||
- **exception_save** (bool) - 当有异常发生时,是否保存当前checkpoint文件。默认值:False。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
|
|
@ -161,6 +161,7 @@
|
|||
**参数:**
|
||||
|
||||
- **mode** (str) - 待设置的网络阶段,可选值为"train"或"eval"。
|
||||
|
||||
- train:代表训练阶段。
|
||||
- eval:代表推理阶段,此时 `summary_record` 不会记录summary算子的数据。
|
||||
|
||||
|
|
|
@ -35,6 +35,18 @@ mindspore.DatasetHelper
|
|||
|
||||
返回动态数据的形状(shape)范围(最小形状(shape),最大形状(shape))。
|
||||
|
||||
**样例:**
|
||||
|
||||
>>>from mindspore import DatasetHelper
|
||||
>>>
|
||||
>>>train_dataset = create_custom_dataset()
|
||||
>>># config dynamic shape
|
||||
>>>dataset.set_dynamic_columns(columns={"data1": [16, None, 83], "data2": [None]})
|
||||
>>>dataset_helper = DatasetHelper(train_dataset, dataset_sink_mode=True)
|
||||
>>>
|
||||
>>>min_shapes, max_shapes = dataset_helper.dynamic_min_max_shapes()
|
||||
|
||||
|
||||
.. py:method:: get_data_info()
|
||||
|
||||
下沉模式下,获取当前批次数据的类型和形状(shape)。通常在数据形状(shape)动态变化的场景使用。
|
||||
|
@ -56,10 +68,29 @@ mindspore.DatasetHelper
|
|||
|
||||
获取每次迭代的 `sink_size` 。
|
||||
|
||||
**样例:**
|
||||
|
||||
>>>from mindspore import DatasetHelper
|
||||
>>>
|
||||
>>>train_dataset = create_custom_dataset()
|
||||
>>>dataset_helper = DatasetHelper(train_dataset, dataset_sink_mode=True, sink_size=-1)
|
||||
>>>
|
||||
>>># if sink_size==-1, then will return the full size of source dataset.
|
||||
>>>sink_size = dataset_helper.sink_size()
|
||||
|
||||
.. py:method:: stop_send()
|
||||
|
||||
停止发送数据下沉数据。
|
||||
|
||||
.. py:method:: types_shapes()
|
||||
|
||||
从当前配置中的数据集获取类型和形状(shape)。
|
||||
从当前配置中的数据集获取类型和形状(shape)。
|
||||
|
||||
**样例:**
|
||||
|
||||
>>>from mindspore import DatasetHelper
|
||||
>>>
|
||||
>>>train_dataset = create_custom_dataset()
|
||||
>>>dataset_helper = DatasetHelper(train_dataset, dataset_sink_mode=True)
|
||||
>>>
|
||||
>>>types, shapes = dataset_helper.types_shapes()
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.DynamicLossScaleManager
|
||||
==================================
|
||||
|
||||
.. py:class:: mindspore.DynamicLossScaleManager(init_loss_scale=16777216, scale_factor=2, scale_window=2000)
|
||||
.. py:class:: mindspore.DynamicLossScaleManager(init_loss_scale=2**24, scale_factor=2, scale_window=2000)
|
||||
|
||||
动态调整梯度放大系数的管理器,继承自 :class:`mindspore.LossScaleManager` 。
|
||||
|
||||
|
@ -50,4 +50,4 @@ mindspore.DynamicLossScaleManager
|
|||
|
||||
**参数:**
|
||||
|
||||
- **overflow** (bool) - 表示是否溢出。
|
||||
**overflow** (bool) - 表示是否溢出。
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.Model
|
||||
================
|
||||
|
||||
.. py:class:: mindspore.Model(network, loss_fn=None, optimizer=None, metrics=None, eval_network=None, eval_indexes=None, amp_level="O0", acc_level="O0", **kwargs)
|
||||
.. py:class:: mindspore.Model(network, loss_fn=None, optimizer=None, metrics=None, eval_network=None, eval_indexes=None, amp_level="O0", boost_level="O0", **kwargs)
|
||||
|
||||
模型训练或推理的高阶接口。 `Model` 会根据用户传入的参数封装可训练或推理的实例。
|
||||
|
||||
|
@ -24,6 +24,14 @@
|
|||
通过`kwargs`设置`keep_batchnorm_fp32`,可修改batchnorm策略,`keep_batchnorm_fp32`必须为bool类型;通过`kwargs`设置`loss_scale_manager`可修改梯度放大策略,`loss_scale_manager`必须为:class:`mindspore.LossScaleManager`的子类,
|
||||
关于 `amp_level` 详见 `mindpore.build_train_network`。
|
||||
|
||||
- **boost_level** (str) – `mindspore.boost` 的可选参数, 为boost模式训练等级。支持[“O0”, “O1”, “O2”]. 默认值: “O0”.
|
||||
|
||||
- O0: 无变化。
|
||||
- O1: 启用boost模式, 性能将提升约20%, 精度保持不变。
|
||||
- O2: 启用boost模式, 性能将提升约30%, 精度下降约3%。
|
||||
|
||||
如果你想设置boost模式, 可以将 `boost_config_dict` 设置为 `boost.py`。
|
||||
|
||||
**样例:**
|
||||
|
||||
>>> from mindspore import Model, nn
|
||||
|
@ -57,7 +65,7 @@
|
|||
>>> dataset = create_custom_dataset()
|
||||
>>> model.train(2, dataset)
|
||||
|
||||
.. py:method:: build(train_dataset=None, valid_dataset=None, sink_size=-1)
|
||||
.. py:method:: build(train_dataset=None, valid_dataset=None, sink_size=-1, epoch=1, jit_config=None)
|
||||
|
||||
数据下沉模式下构建计算图和数据图。
|
||||
|
||||
|
@ -71,6 +79,9 @@
|
|||
- **valid_dataset** (Dataset) - 一个验证集迭代器。如果定义了 `valid_dataset` ,将会构建验证计算图,此时 `Model` 中的 `metrics` 不能为None。默认值:None。
|
||||
- **sink_size** (int) - 控制每次数据下沉的数据量。默认值:-1。
|
||||
- **epoch** (int) - 控制训练轮次。默认值:1。
|
||||
- **jit_config** (Union[str, str]) – 控制jit设置。默认情况下,如果设置为None,计算图会按默认方式编译。用户可以使用字典自定义编译配置。 例如,可以设置 {'jit_level':'o0'} 来控制 jit 级别。支持控制的数据如下所示。 默认值:None。
|
||||
|
||||
- jit_level (string): 控制计算图编译优化级别。可选项: o0/o1。默认值: o1。如果设置为o0,则计算图编译将会传入类似于图阶段的组合。
|
||||
|
||||
**样例:**
|
||||
|
||||
|
@ -206,7 +217,7 @@
|
|||
|
||||
**参数:**
|
||||
|
||||
- **predict_data** (Tensor) – 预测样本,数据可以是单个张量、张量列表或张量元组。
|
||||
**predict_data** (Tensor) – 预测样本,数据可以是单个张量、张量列表或张量元组。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
@ -243,7 +254,7 @@
|
|||
|
||||
- **epoch** (int) – 训练执行轮次。通常每个epoch都会使用全量数据集进行训练。当 `dataset_sink_mode` 设置为True且 `sink_size` 大于零时,则每个epoch训练次数为 `sink_size` 而不是数据集的总步数。
|
||||
- **train_dataset** (Dataset) – 一个训练数据集迭代器。如果定义了 `loss_fn` ,则数据和标签会被分别传给 `network` 和 `loss_fn` ,此时数据集需要返回一个元组(data, label)。如果数据集中有多个数据或者标签,可以设置 `loss_fn` 为None,并在 `network` 中实现损失函数计算,此时数据集返回的所有数据组成的元组(data1, data2, data3, ...)会传给 `network` 。
|
||||
- **callback** (Optional[list[Callback], Callback]) – 训练过程中需要执行的回调对象或者回调对象列表。默认值:None。
|
||||
- **callbacks** (Optional[list[Callback], Callback]) – 训练过程中需要执行的回调对象或者回调对象列表。默认值:None。
|
||||
- **dataset_sink_mode** (bool) – 数据是否直接下沉至处理器进行处理。使用PYNATIVE_MODE模式或CPU处理器时,模型训练流程将以非下沉模式执行。默认值:True。
|
||||
- **sink_size** (int) – 控制每次数据下沉的数据量。`dataset_sink_mode` 为False时 `sink_size` 无效。如果sink_size=-1,则每一次epoch下沉完整数据集。如果sink_size>0,则每一次epoch下沉数据量为sink_size的数据集。默认值:-1。
|
||||
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.Parameter
|
||||
========================
|
||||
|
||||
.. py:class:: mindspore.Parameter(default_input, *args, **kwargs)
|
||||
.. py:class:: mindspore.Parameter(default_input, name=None, requires_grad=True, layerwise_parallel=False, parallel_optimizer=True)
|
||||
|
||||
通常表示网络的参数( `Parameter` 是 `Tensor` 的子类)。
|
||||
|
||||
|
|
|
@ -5,7 +5,8 @@ mindspore.ParameterTuple
|
|||
|
||||
参数元组的类。
|
||||
|
||||
.. note::该类把网络参数存储到参数元组集合中。
|
||||
.. note::
|
||||
该类把网络参数存储到参数元组集合中。
|
||||
|
||||
.. py:method:: clone(prefix, init='same')
|
||||
|
||||
|
|
|
@ -13,7 +13,8 @@ mindspore.RowTensor
|
|||
|
||||
`RowTensor` 只能在 `Cell` 的构造方法中使用。
|
||||
|
||||
目前不支持PyNative模式。
|
||||
.. note::
|
||||
目前不支持PyNative模式。
|
||||
|
||||
**参数:**
|
||||
|
||||
|
|
|
@ -7,7 +7,8 @@ mindspore.SparseTensor
|
|||
|
||||
`SparseTensor` 只能在 `Cell` 的构造方法中使用。
|
||||
|
||||
目前不支持PyNative模式。
|
||||
.. note::
|
||||
目前不支持PyNative模式。
|
||||
|
||||
对于稠密张量,其 `SparseTensor(indices, values, dense_shape)` 具有 `dense[indices[i]] = values[i]` 。
|
||||
|
||||
|
|
|
@ -12,7 +12,7 @@ mindspore.Tensor
|
|||
- **shape** (Union[tuple, list, int]) - 用于定义该Tensor的形状。如果指定了`input_data`,则无需设置该参数。默认值:None。
|
||||
- **init** (Initializer) - 用于在并行模式中延迟Tensor的数据的初始化,如果指定该参数,则`dtype`和`shape`也必须被指定。不推荐在非自动并行之外的场景下使用该接口。只有当调用`Tensor.init_data`时,才会使用指定的`init`来初始化Tensor数据。默认值:None。
|
||||
|
||||
**返回:**
|
||||
**输出:**
|
||||
|
||||
Tensor。
|
||||
|
||||
|
|
|
@ -17,7 +17,7 @@ mindspore.nn.Accuracy
|
|||
- **eval_type** (str) - 评估的数据集的类型,支持'classification'和'multilabel'。'classification'为单标签分类场景,'multilabel'为多标签分类场景。
|
||||
默认值:'classification'。
|
||||
|
||||
**示例:**
|
||||
**样例:**
|
||||
|
||||
>>> import numpy as np
|
||||
>>> import mindspore
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.AdamOffload
|
||||
=========================
|
||||
|
||||
.. py:class:: mindspore.nn.AdamOffload(params, learning_rate=1e-3, beta1=0.9, beta2=0.999, eps=1e-08, use_locking=False, use_nesterov=False, weight_decay=0.0, loss_scale=1.0)
|
||||
.. py:class:: mindspore.nn.AdamOffload(params, learning_rate=1e-3, beta1=0.9, beta2=0.999, eps=1e-8, use_locking=False, use_nesterov=False, weight_decay=0.0, loss_scale=1.0)
|
||||
|
||||
此优化器在主机CPU上运行Adam优化算法,设备上仅执行网络参数的更新,最大限度地降低内存成本。虽然会增加性能开销,但优化器可以运行更大的模型。
|
||||
|
||||
|
@ -19,7 +19,8 @@ mindspore.nn.AdamOffload
|
|||
|
||||
:math:`m` 代表第一个矩向量 `moment1` , :math:`v` 代表第二个矩向量 `moment2`,:math:`g` 代表 `gradients`,:math:`l` 代表缩放因子,:math:`\beta_1,\beta_2` 代表 `beta1` 和 `beta2`,:math:`t` 代表当前step,:math:`beta_1^t` 和 :math:`beta_2^t` 代表 `beta1_power` 和 `beta2_power`,:math:`\alpha` 代表 `learning_rate`,:math:`w` 代表 `params`,:math:`\epsilon` 代表 `eps` 。
|
||||
|
||||
.. note::此优化器目前仅支持图模式。
|
||||
.. note::
|
||||
此优化器目前仅支持图模式。
|
||||
|
||||
.. include:: mindspore.nn.optim_note_weight_decay.rst
|
||||
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.AdamWeightDecay
|
||||
===============================
|
||||
|
||||
.. py:class:: mindspore.nn.AdamWeightDecay(params, learning_rate=1e-3, beta1=0.9, beta2=0.999, eps=1e-06, weight_decay=0.0)
|
||||
.. py:class:: mindspore.nn.AdamWeightDecay(params, learning_rate=1e-3, beta1=0.9, beta2=0.999, eps=1e-6, weight_decay=0.0)
|
||||
|
||||
实现权重衰减Adam算法。
|
||||
|
||||
|
@ -50,11 +50,11 @@ mindspore.nn.AdamWeightDecay
|
|||
|
||||
**输入:**
|
||||
|
||||
- **gradients** (tuple[Tensor]) - `params` 的梯度,shape与 `params` 相同。
|
||||
**gradients** (tuple[Tensor]) - `params` 的梯度,shape与 `params` 相同。
|
||||
|
||||
**输出:**
|
||||
|
||||
- **tuple** [bool],所有元素都为True。
|
||||
**tuple** [bool],所有元素都为True。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
|
|
@ -61,5 +61,5 @@ mindspore.nn.CellList
|
|||
|
||||
**参数:**
|
||||
|
||||
**index** (int) - 给定的列表索引。
|
||||
**cell** (Cell) - 要插入的Cell子类。
|
||||
- **index** (int) - 给定的列表索引。
|
||||
- **cell** (Cell) - 要插入的Cell子类。
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.DistributedGradReducer
|
||||
===================================
|
||||
|
||||
.. py:class:: mindspore.nn.DistributedGradReducer(parameters, mean=True, degree=None, fusion_type=1, group='hccl_world_group')
|
||||
.. py:class:: mindspore.nn.DistributedGradReducer(parameters, mean=True, degree=None, fusion_type=1, group=GlobalComm.WORLD_COMM_GROUP)
|
||||
|
||||
分布式优化器。
|
||||
|
||||
|
@ -9,10 +9,10 @@ mindspore.nn.DistributedGradReducer
|
|||
|
||||
**参数:**
|
||||
|
||||
- **parameters** (list) - 需要更新的参数。
|
||||
- **mean** (bool) - 当mean为True时,对AllReduce之后的梯度求均值。默认值:False。
|
||||
- **degree** (int) - 平均系数,通常等于设备编号。默认值:None。
|
||||
- **fusion_type** (int) - AllReduce算子的融合类型。默认值:1。
|
||||
- **parameters** (list) - 需要更新的参数。
|
||||
- **mean** (bool) - 当mean为True时,对AllReduce之后的梯度求均值。默认值:False。
|
||||
- **degree** (int) - 平均系数,通常等于设备编号。默认值:None。
|
||||
- **fusion_type** (int) - AllReduce算子的融合类型。默认值:1。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
|
|
@ -30,7 +30,7 @@ mindspore.nn.FTRL
|
|||
|
||||
.. include:: mindspore.nn.optim_note_weight_decay.rst
|
||||
|
||||
**参数:**
|
||||
**参数:**
|
||||
|
||||
- **params** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params":
|
||||
|
||||
|
@ -57,7 +57,7 @@ mindspore.nn.FTRL
|
|||
|
||||
**输入:**
|
||||
|
||||
- **grads** (tuple[Tensor]) - 优化器中 `params` 的梯度,shape与优化器中的 `params` 相同。
|
||||
**grads** (tuple[Tensor]) - 优化器中 `params` 的梯度,shape与优化器中的 `params` 相同。
|
||||
|
||||
|
||||
**输出:**
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.GELU
|
||||
==================
|
||||
|
||||
.. py:class:: mindspore.nn.GELU
|
||||
.. py:class:: mindspore.nn.GELU(approximate=True)
|
||||
|
||||
高斯误差线性单元激活函数(Gaussian error linear unit activation function)。
|
||||
|
||||
|
@ -17,9 +17,17 @@ mindspore.nn.GELU
|
|||
|
||||
GELU相关图参见 `GELU <https://en.wikipedia.org/wiki/Activation_function#/media/File:Activation_gelu.png>`_ 。
|
||||
|
||||
**参数:**
|
||||
|
||||
**approximate** (bool): 是否启用approximation,默认值:True。如果approximate的值为True,则高斯误差线性激活函数为:
|
||||
|
||||
:math:`0.5 * x * (1 + tanh(sqrt(2 / pi) * (x + 0.044715 * x^3)))` ,
|
||||
|
||||
否则为: :math:`x * P(X <= x) = 0.5 * x * (1 + erf(x / sqrt(2)))`, where P(X) ~ N(0, 1) 。
|
||||
|
||||
**输入:**
|
||||
|
||||
- **x** (Tensor) - 用于计算GELU的Tensor。数据类型为float16或float32。shape是 :math:`(N,*)` , :math:`*` 表示任意的附加维度数。
|
||||
**x** (Tensor) - 用于计算GELU的Tensor。数据类型为float16或float32。shape是 :math:`(N,*)` , :math:`*` 表示任意的附加维度数。
|
||||
|
||||
**输出:**
|
||||
|
||||
|
@ -27,7 +35,7 @@ mindspore.nn.GELU
|
|||
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - `x` 的数据类型既不是float16也不是float32。
|
||||
**TypeError** - `x` 的数据类型既不是float16也不是float32。
|
||||
|
||||
**支持平台:**
|
||||
|
||||
|
|
|
@ -35,7 +35,6 @@ mindspore.nn.L1Loss
|
|||
**异常:**
|
||||
|
||||
**ValueError** - `reduction` 不为"mean"、"sum"或"none"。
|
||||
**ValueError** - `logits` 和 `labels` 的shape不同,且不能互相广播。
|
||||
|
||||
**支持平台:**
|
||||
|
||||
|
|
|
@ -29,7 +29,7 @@ mindspore.nn.LazyAdam
|
|||
|
||||
**参数:**
|
||||
|
||||
- **param** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params":
|
||||
- **params** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params":
|
||||
|
||||
.. include:: mindspore.nn.optim_group_param.rst
|
||||
.. include:: mindspore.nn.optim_group_lr.rst
|
||||
|
|
|
@ -46,7 +46,7 @@ mindspore.nn.NaturalExpDecayLR
|
|||
|
||||
``Ascend`` ``GPU`` ``CPU``
|
||||
|
||||
**样例:**
|
||||
**样例:**
|
||||
|
||||
>>> import mindspore
|
||||
>>> from mindspore import Tensor, nn
|
||||
|
|
|
@ -16,7 +16,7 @@ mindspore.nn.Optimizer
|
|||
|
||||
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
|
||||
|
||||
- **parameters (Union[list[Parameter], list[dict]])** - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params":
|
||||
- **parameters** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params":
|
||||
|
||||
.. include:: mindspore.nn.optim_group_param.rst
|
||||
.. include:: mindspore.nn.optim_group_lr.rst
|
||||
|
|
|
@ -5,12 +5,12 @@
|
|||
.. note::
|
||||
micro_size必须大于或等于流水线stage的个数。
|
||||
|
||||
** 参数:**
|
||||
** 参数:**
|
||||
|
||||
- **network** (Cell) - 要修饰的目标网络。
|
||||
- **micro_size** (int) - MicroBatch大小。
|
||||
|
||||
**示例:**
|
||||
**样例:**
|
||||
|
||||
>>> net = Net()
|
||||
>>> net = PipelineCell(net, 4)
|
||||
|
|
|
@ -26,7 +26,7 @@ mindspore.nn.ProximalAdagrad
|
|||
|
||||
**参数:**
|
||||
|
||||
- **param** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params":
|
||||
- **params** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params":
|
||||
|
||||
.. include:: mindspore.nn.optim_group_param.rst
|
||||
.. include:: mindspore.nn.optim_group_lr.rst
|
||||
|
|
|
@ -35,9 +35,7 @@ mindspore.nn.SmoothL1Loss
|
|||
**异常:**
|
||||
|
||||
- **TypeError** - `beta` 不是float。
|
||||
- **TypeError** - `logits` 或 `labels` 不是Tensor。
|
||||
- **TypeError** - `logits` 或 `labels` 的数据类型既不是float16,也不是float32。
|
||||
- **TypeError** - `logits` 或 `labels` 的数据类型不相同。
|
||||
- **ValueError** - `beta` 小于或等于0。
|
||||
- **ValueError** - `logits` 的shape与 `labels` 不同。
|
||||
|
||||
|
|
|
@ -10,7 +10,7 @@ mindspore.nn.TopKCategoricalAccuracy
|
|||
|
||||
**参数:**
|
||||
|
||||
- **k (int)** - 指定要计算的top-k分类正确率。
|
||||
**k (int)** - 指定要计算的top-k分类正确率。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
|
|
@ -82,25 +82,27 @@ mindspore.nn.TrainOneStepWithLossScaleCell
|
|||
|
||||
溢出检测的目标过程执行完成后,获取溢出结果。继承该类自定义训练网络时,可复用该接口。
|
||||
|
||||
**输入:**
|
||||
**参数:**
|
||||
|
||||
- **status** (object) - 用于检测溢出的状态实例。
|
||||
- **compute_output** - 对特定计算过程进行溢出检测时,将 `compute_output` 设置为该计算过程的输出,以确保在执行计算之前获取了 `status`。
|
||||
|
||||
**输出:**
|
||||
**返回:**
|
||||
|
||||
bool,是否发生溢出。
|
||||
|
||||
|
||||
.. py:method:: process_loss_scale(overflow)
|
||||
|
||||
根据溢出状态计算梯度放大系数。继承该类自定义训练网络时,可复用该接口。
|
||||
根据溢出状态计算梯度放大系数。
|
||||
|
||||
继承该类自定义训练网络时,可复用该接口。
|
||||
|
||||
**输入:**
|
||||
**参数:**
|
||||
|
||||
- **overflow** (bool) - 是否发生溢出。
|
||||
**overflow** (bool) - 是否发生溢出。
|
||||
|
||||
**输出:**
|
||||
**返回:**
|
||||
|
||||
bool,溢出状态,即输入。
|
||||
|
||||
|
@ -109,9 +111,9 @@ mindspore.nn.TrainOneStepWithLossScaleCell
|
|||
|
||||
如果使用了Tensor类型的 `scale_sense` ,可调用此函数修改它的值。
|
||||
|
||||
**输入:**
|
||||
**参数:**
|
||||
|
||||
- **sens** (Tensor)- 新的梯度放大系数,其shape和类型需要与原始 `scale_sense` 相同。
|
||||
**sens** (Tensor)- 新的梯度放大系数,其shape和类型需要与原始 `scale_sense` 相同。
|
||||
|
||||
.. py:method:: start_overflow_check(pre_cond, compute_input)
|
||||
|
||||
|
@ -119,11 +121,11 @@ mindspore.nn.TrainOneStepWithLossScaleCell
|
|||
|
||||
指定参数 `pre_cond` 和 `compute_input` ,以确保在正确的时间清除溢出状态。以当前接口为例,我们需要在损失函数计算后进行清除状态,在梯度计算过程中检测溢出。在这种情况下,`pre_cond` 应为损失函数的输出,而 `compute_input` 应为梯度计算函数的输入。继承该类自定义训练网络时,可复用该接口。
|
||||
|
||||
**输入:**
|
||||
**参数:**
|
||||
|
||||
- **pre_cond** (Tensor) -启动溢出检测的先决条件。它决定溢出状态清除和先前处理的执行顺序。它确保函数 `start_overflow` 在执行完先决条件后清除状态。
|
||||
- **compute_input** (object) - 后续运算的输入。需要对特定的计算过程进行溢出检测。将 `compute_input` 设置这一计算过程的输入,以确保在执行该计算之前清除了溢出状态。
|
||||
|
||||
**输出:**
|
||||
**返回:**
|
||||
|
||||
- **Tuple** [object, object],GPU后端的第一个值为False,而其他后端的第一个值是NPUAllocFloatStatus的实例。该值用于在 `get_overflow_status` 期间检测溢出。第二个值与 `compute_input` 的输入相同,用于控制执行序。
|
||||
**Tuple** [object, object],GPU后端的第一个值为False,而其他后端的第一个值是NPUAllocFloatStatus的实例。该值用于在 `get_overflow_status` 期间检测溢出。第二个值与 `compute_input` 的输入相同,用于控制执行序。
|
||||
|
|
|
@ -23,23 +23,23 @@ mindspore.nn.Conv2d
|
|||
- **kernel_size** (`Union[int, tuple[int]]`) – 指定二维卷积窗口的高度和宽度。数据类型为整型或2个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。2个整数的tuple分别表示卷积核的高度和宽度。
|
||||
- **stride** (`Union[int, tuple[int]]`) – 步长大小。数据类型为整型或2个整型的tuple。一个整数表示在高度和宽度方向的滑动步长均为该值。2个整数的tuple分别表示在高度和宽度方向的滑动步长。默认值:1。
|
||||
|
||||
- **pad_mode** (`str`) – 指定填充模式。可选值为“same”,“valid”,“pad”。默认值:“same”。
|
||||
- **pad_mode** (`str`) – 指定填充模式。可选值为“same”,“valid”,“pad”。默认值:“same”。
|
||||
|
||||
- **same**:采用补全方式。输出的高度和宽度与输入 `x` 一致。填充总数将在水平和垂直方向进行计算。并尽可能均匀分布到顶部、底部、左侧和右侧。否则,最后一次将从底部和右侧进行额外的填充。若设置该模式,`padding` 必须为0。
|
||||
- **valid**:采用丢弃方式。在不填充的前提下返回可能大的高度和宽度的输出。多余的像素会被丢弃。若设置该模式,`padding` 必须为0。
|
||||
- **pad**:输入 `x` 两侧的隐式填充。`padding` 的数量将填充到输入Tensor边框上。`padding` 必须大于或等于0。
|
||||
- **same**:采用补全方式。输出的高度和宽度与输入 `x` 一致。填充总数将在水平和垂直方向进行计算。并尽可能均匀分布到顶部、底部、左侧和右侧。否则,最后一次将从底部和右侧进行额外的填充。若设置该模式,`padding` 必须为0。
|
||||
- **valid**:采用丢弃方式。在不填充的前提下返回可能大的高度和宽度的输出。多余的像素会被丢弃。若设置该模式,`padding` 必须为0。
|
||||
- **pad**:输入 `x` 两侧的隐式填充。`padding` 的数量将填充到输入Tensor边框上。`padding` 必须大于或等于0。
|
||||
|
||||
- **padding** (`Union[int, tuple[int]]`) – 输入 `x` 两侧的隐式填充。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple,那么上、下、左、右的填充分别等于 `padding[0]` 、 `padding[1]` 、 `padding[2]` 和 `padding[3]` 。默认值:0。
|
||||
- **dilation** (`Union[int, tuple[int]]`) – 指定用于扩张卷积的扩张速率。数据类型为整型或具有2个整型的tuple。如果设置 :math:`k > 1` ,则每个采样位置将跳过 :math:`k-1` 个像素。其值必须大于或等于1,并以输入的高度和宽度为边界。默认值:1。
|
||||
- **group** (`int`) – 将过滤器分组, `in_channels` 和 `out_channels` 必须被组数整除。如果组数等于 `in_channels` 和 `out_channels` ,这个二维卷积层也被称为二维深度卷积层。默认值:1.
|
||||
- **has_bias** (`bool`) – 指定图层是否使用偏置向量。默认值:False。
|
||||
- **weight_init** (`Union[Tensor, str, Initializer, numbers.Number]`) – 卷积核的初始化方法。它可以是Tensor,str,初始化实例或numbers.Number。当使用str时,可选“TruncatedNormal”,“Normal”,“Uniform”,“HeUniform”和“XavierUniform”分布以及常量“One”和“Zero”分布的值,可接受别名“ xavier_uniform”,“ he_uniform”,“ ones”和“ zeros”。上述字符串大小写均可。更多细节请参考Initializer的值。默认值:“normal”。
|
||||
- **bias_init** (`Union[Tensor, str, Initializer, numbers.Number]`) – 偏置向量的初始化方法。可以使用的初始化方法和字符串与“weight_init”相同。更多细节请参考Initializer的值。默认值:“zeros”。
|
||||
- **data_format** (`str`) – 数据格式的可选值有“NHWC”,“NCHW”。默认值:“NCHW”。
|
||||
- **padding** (`Union[int, tuple[int]]`) – 输入 `x` 两侧的隐式填充。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple,那么上、下、左、右的填充分别等于 `padding[0]` 、 `padding[1]` 、 `padding[2]` 和 `padding[3]` 。默认值:0。
|
||||
- **dilation** (`Union[int, tuple[int]]`) – 指定用于扩张卷积的扩张速率。数据类型为整型或具有2个整型的tuple。如果设置 :math:`k > 1` ,则每个采样位置将跳过 :math:`k-1` 个像素。其值必须大于或等于1,并以输入的高度和宽度为边界。默认值:1。
|
||||
- **group** (`int`) – 将过滤器分组, `in_channels` 和 `out_channels` 必须被组数整除。如果组数等于 `in_channels` 和 `out_channels` ,这个二维卷积层也被称为二维深度卷积层。默认值:1.
|
||||
- **has_bias** (`bool`) – 指定图层是否使用偏置向量。默认值:False。
|
||||
- **weight_init** (`Union[Tensor, str, Initializer, numbers.Number]`) – 卷积核的初始化方法。它可以是Tensor,str,初始化实例或numbers.Number。当使用str时,可选“TruncatedNormal”,“Normal”,“Uniform”,“HeUniform”和“XavierUniform”分布以及常量“One”和“Zero”分布的值,可接受别名“ xavier_uniform”,“ he_uniform”,“ ones”和“ zeros”。上述字符串大小写均可。更多细节请参考Initializer的值。默认值:“normal”。
|
||||
- **bias_init** (`Union[Tensor, str, Initializer, numbers.Number]`) – 偏置向量的初始化方法。可以使用的初始化方法和字符串与“weight_init”相同。更多细节请参考Initializer的值。默认值:“zeros”。
|
||||
- **data_format** (`str`) – 数据格式的可选值有“NHWC”,“NCHW”。默认值:“NCHW”。
|
||||
|
||||
**输入:**
|
||||
|
||||
- **x** (Tensor) - Shape为 :math:`(N, C_{in}, H_{in}, W_{in})` 或者 :math:`(N, H_{in}, W_{in}, C_{in})` 的Tensor。
|
||||
**x** (Tensor) - Shape为 :math:`(N, C_{in}, H_{in}, W_{in})` 或者 :math:`(N, H_{in}, W_{in}, C_{in})` 的Tensor。
|
||||
|
||||
**输出:**
|
||||
|
||||
|
|
|
@ -28,13 +28,14 @@ mindspore.nn.probability.bijector.Bijector
|
|||
|
||||
- **value** (Tensor) - 输入数据。
|
||||
- **para** (Tensor) - Bijector参数。
|
||||
- **kwargs** (dict) - 函数需要的关键字参数字典。
|
||||
|
||||
.. py:method:: construct(name, *args, **kwargs)
|
||||
|
||||
重写Cell中的 `construct` 。
|
||||
|
||||
.. note::
|
||||
支持的函数包括:'forward'、'inverse'、'forward_log_jacobian'、'inverse_log_jacobian'。
|
||||
.. note::
|
||||
支持的函数包括:'forward'、'inverse'、'forward_log_jacobian'、'inverse_log_jacobian'。
|
||||
|
||||
**参数:**
|
||||
|
||||
|
|
|
@ -7,7 +7,7 @@ mindspore.nn.probability.bijector.Invert
|
|||
|
||||
**参数:**
|
||||
|
||||
- **Bijector** (Bijector) - 基础Bijector(Base Bijector)。
|
||||
- **bijector** (Bijector) - 基础Bijector(Base Bijector)。
|
||||
- **name** (str) - Bijector名称。默认值:""。当name设置为""时,它实际上是'Invert' + Bijector.name。
|
||||
|
||||
**支持平台:**
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.bijector.PowerTransform
|
||||
=================================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.bijector.PowerTransform(power=0.0, name='PowerTransform')
|
||||
.. py:class:: mindspore.nn.probability.bijector.PowerTransform(power=0., name='PowerTransform')
|
||||
|
||||
乘方Bijector(Power Bijector)。
|
||||
此Bijector执行如下操作:
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.distribution.Bernoulli
|
||||
================================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.distribution.Bernoulli(probs=None, seed=None, dtype=mindspore.int32, name='Bernoulli')
|
||||
.. py:class:: mindspore.nn.probability.distribution.Bernoulli(probs=None, seed=None, dtype=mstype.int32, name='Bernoulli')
|
||||
|
||||
伯努利分布(Bernoulli Distribution)。
|
||||
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.distribution.Beta
|
||||
================================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.distribution.Beta(concentration1=None, concentration0=None, seed=None, dtype=mindspore.float32, name='Beta')
|
||||
.. py:class:: mindspore.nn.probability.distribution.Beta(concentration1=None, concentration0=None, seed=None, dtype=mstype.float32, name='Beta')
|
||||
|
||||
贝塔分布(Beta Distribution)。
|
||||
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.distribution.Categorical
|
||||
==================================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.distribution.Categorical(probs=None, seed=None, dtype=mindspore.int32, name='Categorical')
|
||||
.. py:class:: mindspore.nn.probability.distribution.Categorical(probs=None, seed=None, dtype=mstype.float32, name='Categorical')
|
||||
|
||||
分类分布。
|
||||
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.distribution.Cauchy
|
||||
================================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.distribution.Cauchy(loc=None, scale=None, seed=None, dtype=mindspore.float32, name='Cauchy')
|
||||
.. py:class:: mindspore.nn.probability.distribution.Cauchy(loc=None, scale=None, seed=None, dtype=mstype.float32, name='Cauchy')
|
||||
|
||||
柯西分布(Cauchy distribution)。
|
||||
|
||||
|
|
|
@ -29,6 +29,9 @@ mindspore.nn.probability.distribution.Distribution
|
|||
- **args** (list) - 传递给子类的位置参数列表。
|
||||
- **kwargs** (dict) - 传递给子类的关键字参数字典。
|
||||
|
||||
.. note::
|
||||
可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
|
||||
|
||||
.. py:method:: construct(name, *args, **kwargs)
|
||||
|
||||
重写Cell中的 `construct` 。
|
||||
|
@ -52,6 +55,9 @@ mindspore.nn.probability.distribution.Distribution
|
|||
- **dist** (str) - 分布的类型。
|
||||
- **args** (list) - 传递给子类的位置参数列表。
|
||||
- **kwargs** (dict) - 传递给子类的关键字参数字典。
|
||||
|
||||
.. note::
|
||||
Distribution b的 `dist_spec_args` 必须通过 `args` 或 `kwargs` 传递给函数。 传入Distribution a的 `dist_spec_args` 是可选的。
|
||||
|
||||
.. py:method:: entropy(*args, **kwargs)
|
||||
|
||||
|
@ -61,6 +67,9 @@ mindspore.nn.probability.distribution.Distribution
|
|||
|
||||
- **args** (list) - 传递给子类的位置参数列表。
|
||||
- **kwargs** (dict) - 传递给子类的关键字参数字典。
|
||||
|
||||
.. note::
|
||||
可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
|
||||
|
||||
.. py:method:: get_dist_args(*args, **kwargs)
|
||||
|
||||
|
@ -87,6 +96,9 @@ mindspore.nn.probability.distribution.Distribution
|
|||
- **dist** (str) - 分布的类型。
|
||||
- **args** (list) - 传递给子类的位置参数列表。
|
||||
- **kwargs** (dict) - 传递给子类的关键字参数字典。
|
||||
|
||||
.. note::
|
||||
Distribution b的 `dist_spec_args` 必须通过 `args` 或 `kwargs` 传递给函数。 传入Distribution a的 `dist_spec_args` 是可选的。
|
||||
|
||||
.. py:method:: log_cdf(value, *args, **kwargs)
|
||||
|
||||
|
@ -97,6 +109,9 @@ mindspore.nn.probability.distribution.Distribution
|
|||
- **value** (Tensor) - 要评估的值。
|
||||
- **args** (list) - 传递给子类的位置参数列表。
|
||||
- **kwargs** (dict) - 传递给子类的关键字参数字典。
|
||||
|
||||
.. note::
|
||||
可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
|
||||
|
||||
.. py:method:: log_prob(value, *args, **kwargs)
|
||||
|
||||
|
@ -107,6 +122,9 @@ mindspore.nn.probability.distribution.Distribution
|
|||
- **value** (Tensor) - 要评估的值。
|
||||
- **args** (list) - 传递给子类的位置参数列表。
|
||||
- **kwargs** (dict) - 传递给子类的关键字参数字典。
|
||||
|
||||
.. note::
|
||||
可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
|
||||
|
||||
.. py:method:: log_survival(value, *args, **kwargs)
|
||||
|
||||
|
@ -117,6 +135,9 @@ mindspore.nn.probability.distribution.Distribution
|
|||
- **value** (Tensor) - 要评估的值。
|
||||
- **args** (list) - 传递给子类的位置参数列表。
|
||||
- **kwargs** (dict) - 传递给子类的关键字参数字典。
|
||||
|
||||
.. note::
|
||||
可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
|
||||
|
||||
.. py:method:: mean(*args, **kwargs)
|
||||
|
||||
|
@ -126,6 +147,9 @@ mindspore.nn.probability.distribution.Distribution
|
|||
|
||||
- **args** (list) - 传递给子类的位置参数列表。
|
||||
- **kwargs** (dict) - 传递给子类的关键字参数字典。
|
||||
|
||||
.. note::
|
||||
可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
|
||||
|
||||
.. py:method:: mode(*args, **kwargs)
|
||||
|
||||
|
@ -135,6 +159,9 @@ mindspore.nn.probability.distribution.Distribution
|
|||
|
||||
- **args** (list) - 传递给子类的位置参数列表。
|
||||
- **kwargs** (dict) - 传递给子类的关键字参数字典。
|
||||
|
||||
.. note::
|
||||
可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
|
||||
|
||||
.. py:method:: prob(value, *args, **kwargs)
|
||||
|
||||
|
@ -146,6 +173,9 @@ mindspore.nn.probability.distribution.Distribution
|
|||
- **args** (list) - 传递给子类的位置参数列表。
|
||||
- **kwargs** (dict) - 传递给子类的关键字参数字典。
|
||||
|
||||
.. note::
|
||||
可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
|
||||
|
||||
.. py:method:: sample(*args, **kwargs)
|
||||
|
||||
采样函数。
|
||||
|
@ -155,6 +185,9 @@ mindspore.nn.probability.distribution.Distribution
|
|||
- **shape** (tuple) - 样本的shape。
|
||||
- **args** (list) - 传递给子类的位置参数列表。
|
||||
- **kwargs** (dict) - 传递给子类的关键字参数字典。
|
||||
|
||||
.. note::
|
||||
可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
|
||||
|
||||
.. py:method:: sd(*args, **kwargs)
|
||||
|
||||
|
@ -164,6 +197,9 @@ mindspore.nn.probability.distribution.Distribution
|
|||
|
||||
- **args** (list) - 传递给子类的位置参数列表。
|
||||
- **kwargs** (dict) - 传递给子类的关键字参数字典。
|
||||
|
||||
.. note::
|
||||
可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
|
||||
|
||||
.. py:method:: survival_function(value, *args, **kwargs)
|
||||
|
||||
|
@ -175,6 +211,9 @@ mindspore.nn.probability.distribution.Distribution
|
|||
- **args** (list) - 传递给子类的位置参数列表。
|
||||
- **kwargs** (dict) - 传递给子类的关键字参数字典。
|
||||
|
||||
.. note::
|
||||
可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
|
||||
|
||||
.. py:method:: var(*args, **kwargs)
|
||||
|
||||
评估方差。
|
||||
|
@ -183,4 +222,7 @@ mindspore.nn.probability.distribution.Distribution
|
|||
|
||||
- **args** (list) - 传递给子类的位置参数列表。
|
||||
- **kwargs** (dict) - 传递给子类的关键字参数字典。
|
||||
|
||||
.. note::
|
||||
可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。
|
||||
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.distribution.Exponential
|
||||
===================================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.distribution.Exponential(rate=None, seed=None, dtype=mindspore.float32, name='Exponential')
|
||||
.. py:class:: mindspore.nn.probability.distribution.Exponential(rate=None, seed=None, dtype=mstype.float32, name='Exponential')
|
||||
|
||||
示例类:指数分布(Exponential Distribution)。
|
||||
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.distribution.Gamma
|
||||
================================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.distribution.Gamma(concentration=None, rate=None, seed=None, dtype=mindspore.float32, name='Gamma')
|
||||
.. py:class:: mindspore.nn.probability.distribution.Gamma(concentration=None, rate=None, seed=None, dtype=mstype.float3, name='Gamma')
|
||||
|
||||
伽马分布(Gamma distribution)。
|
||||
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.distribution.Geometric
|
||||
================================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.distribution.Geometric(probs=None, seed=None, dtype=mindspore.int32, name='Geometric')
|
||||
.. py:class:: mindspore.nn.probability.distribution.Geometric(probs=None, seed=None, dtype=mstype.int32, name='Geometric')
|
||||
|
||||
几何分布(Geometric Distribution)。
|
||||
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.distribution.Gumbel
|
||||
================================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.distribution.Gumbel(loc, scale, seed=0, dtype=mindspore.float32, name='Gumbel')
|
||||
.. py:class:: mindspore.nn.probability.distribution.Gumbel(loc, scale, seed=0, dtype=mstype.float32, name='Gumbel')
|
||||
|
||||
耿贝尔分布(Gumbel distribution)。
|
||||
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.distribution.LogNormal
|
||||
================================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.distribution.LogNormal(loc=None, scale=None, seed=0, dtype=mindspore.float32, name='LogNormal')
|
||||
.. py:class:: mindspore.nn.probability.distribution.LogNormal(loc=None, scale=None, seed=0, dtype=mstype.float32, name='LogNormal')
|
||||
|
||||
对数正态分布(LogNormal distribution)。
|
||||
对数正态分布是随机变量的连续概率分布,变量的对数为正态分布。它被构造为正态分布的指数变换。
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.distribution.Logistic
|
||||
================================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.distribution.Logistic(loc=None, scale=None, seed=None, dtype=mindspore.float32, name='Logistic')
|
||||
.. py:class:: mindspore.nn.probability.distribution.Logistic(loc=None, scale=None, seed=None, dtype=mstype.float32, name='Logistic')
|
||||
|
||||
逻辑斯谛分布(Logistic distribution)。
|
||||
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.distribution.Normal
|
||||
================================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.distribution.Normal(mean=None, sd=None, seed=None, dtype=mindspore.float32, name='Normal')
|
||||
.. py:class:: mindspore.nn.probability.distribution.Normal(mean=None, sd=None, seed=None, dtype=mstype.float32, name='Normal')
|
||||
|
||||
正态分布(Normal distribution)。
|
||||
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.distribution.Poisson
|
||||
================================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.distribution.Poisson(rate=None, seed=None, dtype=mindspore.float32, name='Poisson')
|
||||
.. py:class:: mindspore.nn.probability.distribution.Poisson(rate=None, seed=None, dtype=mstype.float32, name='Poisson')
|
||||
|
||||
泊松分布(Poisson Distribution)。
|
||||
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.distribution.Uniform
|
||||
================================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.distribution.Uniform(low=None, high=None, seed=None, dtype=mindspore.float32, name='Uniform')
|
||||
.. py:class:: mindspore.nn.probability.distribution.Uniform(low=None, high=None, seed=None, dtype=mstype.float32, name='Uniform')
|
||||
|
||||
示例类:均匀分布(Uniform Distribution)。
|
||||
|
||||
|
|
Loading…
Reference in New Issue