From a9da0e7b9cf7e5fcf983d43a15b435837c61b554 Mon Sep 17 00:00:00 2001 From: yingchen Date: Thu, 30 Dec 2021 19:27:21 +0800 Subject: [PATCH] update api zh --- .../mindspore.common.initializer.rst | 4 +- ...dspore.train.callback.CheckpointConfig.rst | 3 +- .../mindspore.train.summary.SummaryRecord.rst | 1 + .../mindspore/mindspore.DatasetHelper.rst | 33 ++++++++++++++- .../mindspore.DynamicLossScaleManager.rst | 4 +- .../api_python/mindspore/mindspore.Model.rst | 19 +++++++-- .../mindspore/mindspore.Parameter.rst | 2 +- .../mindspore/mindspore.ParameterTuple.rst | 3 +- .../mindspore/mindspore.RowTensor.rst | 3 +- .../mindspore/mindspore.SparseTensor.rst | 3 +- .../api_python/mindspore/mindspore.Tensor.rst | 2 +- .../api_python/nn/mindspore.nn.Accuracy.rst | 2 +- .../nn/mindspore.nn.AdamOffload.rst | 5 ++- .../nn/mindspore.nn.AdamWeightDecay.rst | 6 +-- .../api_python/nn/mindspore.nn.CellList.rst | 4 +- .../mindspore.nn.DistributedGradReducer.rst | 10 ++--- docs/api/api_python/nn/mindspore.nn.FTRL.rst | 4 +- docs/api/api_python/nn/mindspore.nn.GELU.rst | 14 +++++-- .../api/api_python/nn/mindspore.nn.L1Loss.rst | 1 - .../api_python/nn/mindspore.nn.LazyAdam.rst | 2 +- .../nn/mindspore.nn.NaturalExpDecayLR.rst | 2 +- .../api_python/nn/mindspore.nn.Optimizer.rst | 2 +- .../nn/mindspore.nn.PipelineCell.rst | 4 +- .../nn/mindspore.nn.ProximalAdagrad.rst | 2 +- .../nn/mindspore.nn.SmoothL1Loss.rst | 2 - .../mindspore.nn.TopKCategoricalAccuracy.rst | 2 +- ...spore.nn.TrainOneStepWithLossScaleCell.rst | 24 ++++++----- .../api/api_python/nn/mindspore.nn.conv2d.rst | 24 +++++------ ...spore.nn.probability.bijector.Bijector.rst | 5 ++- ...ndspore.nn.probability.bijector.Invert.rst | 2 +- ...nn.probability.bijector.PowerTransform.rst | 2 +- ....nn.probability.distribution.Bernoulli.rst | 2 +- ...spore.nn.probability.distribution.Beta.rst | 2 +- ...n.probability.distribution.Categorical.rst | 2 +- ...ore.nn.probability.distribution.Cauchy.rst | 2 +- ....probability.distribution.Distribution.rst | 42 +++++++++++++++++++ ...n.probability.distribution.Exponential.rst | 2 +- ...pore.nn.probability.distribution.Gamma.rst | 2 +- ....nn.probability.distribution.Geometric.rst | 2 +- ...ore.nn.probability.distribution.Gumbel.rst | 2 +- ....nn.probability.distribution.LogNormal.rst | 2 +- ...e.nn.probability.distribution.Logistic.rst | 2 +- ...ore.nn.probability.distribution.Normal.rst | 2 +- ...re.nn.probability.distribution.Poisson.rst | 2 +- ...re.nn.probability.distribution.Uniform.rst | 2 +- 45 files changed, 181 insertions(+), 83 deletions(-) diff --git a/docs/api/api_python/mindspore.common.initializer.rst b/docs/api/api_python/mindspore.common.initializer.rst index f8401dd8f6a..0642f5b8d73 100644 --- a/docs/api/api_python/mindspore.common.initializer.rst +++ b/docs/api/api_python/mindspore.common.initializer.rst @@ -130,7 +130,7 @@ mindspore.common.initializer >>> tensor1 = initializer(XavierUniform(), [1,2,3], mindspore.float32) >>> tensor2 = initializer('xavier_uniform', [1,2,3], mindspore.float32) -.. py:class:: mindspore.common.initializer.One +.. py:class:: mindspore.common.initializer.One(**kwargs) 生成一个值全为1的常量数组用于初始化Tensor。 @@ -141,7 +141,7 @@ mindspore.common.initializer >>> tensor1 = initializer(One(), [1,2,3], mindspore.float32) >>> tensor2 = initializer('ones', [1,2,3], mindspore.float32) -.. py:class:: mindspore.common.initializer.Zero +.. py:class:: mindspore.common.initializer.Zero(**kwargs) 生成一个值全为0的常量数组用于初始化Tensor。 diff --git a/docs/api/api_python/mindspore.train/mindspore.train.callback.CheckpointConfig.rst b/docs/api/api_python/mindspore.train/mindspore.train.callback.CheckpointConfig.rst index 3aaa33ccb84..96edb917529 100644 --- a/docs/api/api_python/mindspore.train/mindspore.train.callback.CheckpointConfig.rst +++ b/docs/api/api_python/mindspore.train/mindspore.train.callback.CheckpointConfig.rst @@ -1,4 +1,4 @@ -.. py:class:: mindspore.train.callback.CheckpointConfig(save_checkpoint_steps=1, save_checkpoint_seconds=0, keep_checkpoint_max=5, keep_checkpoint_per_n_minutes=0, integrated_save=True, async_save=False, saved_network=None, append_info=None, enc_key=None, enc_mode='AES-GCM') +.. py:class:: mindspore.train.callback.CheckpointConfig(save_checkpoint_steps=1, save_checkpoint_seconds=0, keep_checkpoint_max=5, keep_checkpoint_per_n_minutes=0, integrated_save=True, async_save=False, saved_network=None, append_info=None, enc_key=None, enc_mode='AES-GCM', exception_save=False) 保存checkpoint时的配置策略。 @@ -17,6 +17,7 @@ - **append_info** (list) - 保存在checkpoint文件中的信息。支持"epoch_num"、"step_num"和dict类型。dict的key必须是str,dict的value必须是int、float或bool中的一个。默认值:None。 - **enc_key** (Union[None, bytes]) - 用于加密的字节类型key。如果值为None,则不需要加密。默认值:None。 - **enc_mode** (str) - 仅当 `enc_key` 不设为None时,该参数有效。指定了加密模式,目前支持AES-GCM和AES-CBC。默认值:AES-GCM。 + - **exception_save** (bool) - 当有异常发生时,是否保存当前checkpoint文件。默认值:False。 **异常:** diff --git a/docs/api/api_python/mindspore.train/mindspore.train.summary.SummaryRecord.rst b/docs/api/api_python/mindspore.train/mindspore.train.summary.SummaryRecord.rst index 16ac7698146..1cfd8889ed3 100644 --- a/docs/api/api_python/mindspore.train/mindspore.train.summary.SummaryRecord.rst +++ b/docs/api/api_python/mindspore.train/mindspore.train.summary.SummaryRecord.rst @@ -161,6 +161,7 @@ **参数:** - **mode** (str) - 待设置的网络阶段,可选值为"train"或"eval"。 + - train:代表训练阶段。 - eval:代表推理阶段,此时 `summary_record` 不会记录summary算子的数据。 diff --git a/docs/api/api_python/mindspore/mindspore.DatasetHelper.rst b/docs/api/api_python/mindspore/mindspore.DatasetHelper.rst index 338270d4f18..630c218fd2b 100644 --- a/docs/api/api_python/mindspore/mindspore.DatasetHelper.rst +++ b/docs/api/api_python/mindspore/mindspore.DatasetHelper.rst @@ -35,6 +35,18 @@ mindspore.DatasetHelper ض̬ݵ״(shape)ΧС״(shape)״(shape) + **** + + >>>from mindspore import DatasetHelper + >>> + >>>train_dataset = create_custom_dataset() + >>># config dynamic shape + >>>dataset.set_dynamic_columns(columns={"data1": [16, None, 83], "data2": [None]}) + >>>dataset_helper = DatasetHelper(train_dataset, dataset_sink_mode=True) + >>> + >>>min_shapes, max_shapes = dataset_helper.dynamic_min_max_shapes() + + .. py:method:: get_data_info() ³ģʽ£ȡǰݵͺ״(shape)ͨ״(shape)̬仯ijʹá @@ -56,10 +68,29 @@ mindspore.DatasetHelper ȡÿε `sink_size` + **** + + >>>from mindspore import DatasetHelper + >>> + >>>train_dataset = create_custom_dataset() + >>>dataset_helper = DatasetHelper(train_dataset, dataset_sink_mode=True, sink_size=-1) + >>> + >>># if sink_size==-1, then will return the full size of source dataset. + >>>sink_size = dataset_helper.sink_size() + .. py:method:: stop_send() ֹͣ³ݡ .. py:method:: types_shapes() - ӵǰеݼȡͺ״(shape) \ No newline at end of file + ӵǰеݼȡͺ״(shape) + + **** + + >>>from mindspore import DatasetHelper + >>> + >>>train_dataset = create_custom_dataset() + >>>dataset_helper = DatasetHelper(train_dataset, dataset_sink_mode=True) + >>> + >>>types, shapes = dataset_helper.types_shapes() \ No newline at end of file diff --git a/docs/api/api_python/mindspore/mindspore.DynamicLossScaleManager.rst b/docs/api/api_python/mindspore/mindspore.DynamicLossScaleManager.rst index 5cf861a14cb..8e7124a6a18 100644 --- a/docs/api/api_python/mindspore/mindspore.DynamicLossScaleManager.rst +++ b/docs/api/api_python/mindspore/mindspore.DynamicLossScaleManager.rst @@ -1,7 +1,7 @@ mindspore.DynamicLossScaleManager ================================== -.. py:class:: mindspore.DynamicLossScaleManager(init_loss_scale=16777216, scale_factor=2, scale_window=2000) +.. py:class:: mindspore.DynamicLossScaleManager(init_loss_scale=2**24, scale_factor=2, scale_window=2000) ̬ݶȷŴϵĹ̳ :class:`mindspore.LossScaleManager` @@ -50,4 +50,4 @@ mindspore.DynamicLossScaleManager **** - - **overflow** (bool) - ʾǷ + **overflow** (bool) - ʾǷ \ No newline at end of file diff --git a/docs/api/api_python/mindspore/mindspore.Model.rst b/docs/api/api_python/mindspore/mindspore.Model.rst index 2e0aaaa76bc..c3ff4d4ac4d 100644 --- a/docs/api/api_python/mindspore/mindspore.Model.rst +++ b/docs/api/api_python/mindspore/mindspore.Model.rst @@ -1,7 +1,7 @@ mindspore.Model ================ -.. py:class:: mindspore.Model(network, loss_fn=None, optimizer=None, metrics=None, eval_network=None, eval_indexes=None, amp_level="O0", acc_level="O0", **kwargs) +.. py:class:: mindspore.Model(network, loss_fn=None, optimizer=None, metrics=None, eval_network=None, eval_indexes=None, amp_level="O0", boost_level="O0", **kwargs) 模型训练或推理的高阶接口。 `Model` 会根据用户传入的参数封装可训练或推理的实例。 @@ -24,6 +24,14 @@ 通过`kwargs`设置`keep_batchnorm_fp32`,可修改batchnorm策略,`keep_batchnorm_fp32`必须为bool类型;通过`kwargs`设置`loss_scale_manager`可修改梯度放大策略,`loss_scale_manager`必须为:class:`mindspore.LossScaleManager`的子类, 关于 `amp_level` 详见 `mindpore.build_train_network`。 + - **boost_level** (str) – `mindspore.boost` 的可选参数, 为boost模式训练等级。支持[“O0”, “O1”, “O2”]. 默认值: “O0”. + + - O0: 无变化。 + - O1: 启用boost模式, 性能将提升约20%, 精度保持不变。 + - O2: 启用boost模式, 性能将提升约30%, 精度下降约3%。 + + 如果你想设置boost模式, 可以将 `boost_config_dict` 设置为 `boost.py`。 + **样例:** >>> from mindspore import Model, nn @@ -57,7 +65,7 @@ >>> dataset = create_custom_dataset() >>> model.train(2, dataset) - .. py:method:: build(train_dataset=None, valid_dataset=None, sink_size=-1) + .. py:method:: build(train_dataset=None, valid_dataset=None, sink_size=-1, epoch=1, jit_config=None) 数据下沉模式下构建计算图和数据图。 @@ -71,6 +79,9 @@ - **valid_dataset** (Dataset) - 一个验证集迭代器。如果定义了 `valid_dataset` ,将会构建验证计算图,此时 `Model` 中的 `metrics` 不能为None。默认值:None。 - **sink_size** (int) - 控制每次数据下沉的数据量。默认值:-1。 - **epoch** (int) - 控制训练轮次。默认值:1。 + - **jit_config** (Union[str, str]) – 控制jit设置。默认情况下,如果设置为None,计算图会按默认方式编译。用户可以使用字典自定义编译配置。 例如,可以设置 {'jit_level':'o0'} 来控制 jit 级别。支持控制的数据如下所示。 默认值:None。 + + - jit_level (string): 控制计算图编译优化级别。可选项: o0/o1。默认值: o1。如果设置为o0,则计算图编译将会传入类似于图阶段的组合。 **样例:** @@ -206,7 +217,7 @@ **参数:** - - **predict_data** (Tensor) – 预测样本,数据可以是单个张量、张量列表或张量元组。 + **predict_data** (Tensor) – 预测样本,数据可以是单个张量、张量列表或张量元组。 **返回:** @@ -243,7 +254,7 @@ - **epoch** (int) – 训练执行轮次。通常每个epoch都会使用全量数据集进行训练。当 `dataset_sink_mode` 设置为True且 `sink_size` 大于零时,则每个epoch训练次数为 `sink_size` 而不是数据集的总步数。 - **train_dataset** (Dataset) – 一个训练数据集迭代器。如果定义了 `loss_fn` ,则数据和标签会被分别传给 `network` 和 `loss_fn` ,此时数据集需要返回一个元组(data, label)。如果数据集中有多个数据或者标签,可以设置 `loss_fn` 为None,并在 `network` 中实现损失函数计算,此时数据集返回的所有数据组成的元组(data1, data2, data3, ...)会传给 `network` 。 - - **callback** (Optional[list[Callback], Callback]) – 训练过程中需要执行的回调对象或者回调对象列表。默认值:None。 + - **callbacks** (Optional[list[Callback], Callback]) – 训练过程中需要执行的回调对象或者回调对象列表。默认值:None。 - **dataset_sink_mode** (bool) – 数据是否直接下沉至处理器进行处理。使用PYNATIVE_MODE模式或CPU处理器时,模型训练流程将以非下沉模式执行。默认值:True。 - **sink_size** (int) – 控制每次数据下沉的数据量。`dataset_sink_mode` 为False时 `sink_size` 无效。如果sink_size=-1,则每一次epoch下沉完整数据集。如果sink_size>0,则每一次epoch下沉数据量为sink_size的数据集。默认值:-1。 diff --git a/docs/api/api_python/mindspore/mindspore.Parameter.rst b/docs/api/api_python/mindspore/mindspore.Parameter.rst index e95d0083854..9c926c42834 100644 --- a/docs/api/api_python/mindspore/mindspore.Parameter.rst +++ b/docs/api/api_python/mindspore/mindspore.Parameter.rst @@ -1,7 +1,7 @@ mindspore.Parameter ======================== -.. py:class:: mindspore.Parameter(default_input, *args, **kwargs) +.. py:class:: mindspore.Parameter(default_input, name=None, requires_grad=True, layerwise_parallel=False, parallel_optimizer=True) 通常表示网络的参数( `Parameter` 是 `Tensor` 的子类)。 diff --git a/docs/api/api_python/mindspore/mindspore.ParameterTuple.rst b/docs/api/api_python/mindspore/mindspore.ParameterTuple.rst index 20116e04219..e34b3c4c0c4 100644 --- a/docs/api/api_python/mindspore/mindspore.ParameterTuple.rst +++ b/docs/api/api_python/mindspore/mindspore.ParameterTuple.rst @@ -5,7 +5,8 @@ mindspore.ParameterTuple 参数元组的类。 - .. note::该类把网络参数存储到参数元组集合中。 + .. note:: + 该类把网络参数存储到参数元组集合中。 .. py:method:: clone(prefix, init='same') diff --git a/docs/api/api_python/mindspore/mindspore.RowTensor.rst b/docs/api/api_python/mindspore/mindspore.RowTensor.rst index 8ea139f19df..221fd22ca6f 100644 --- a/docs/api/api_python/mindspore/mindspore.RowTensor.rst +++ b/docs/api/api_python/mindspore/mindspore.RowTensor.rst @@ -13,7 +13,8 @@ mindspore.RowTensor `RowTensor` 只能在 `Cell` 的构造方法中使用。 - 目前不支持PyNative模式。 + .. note:: + 目前不支持PyNative模式。 **参数:** diff --git a/docs/api/api_python/mindspore/mindspore.SparseTensor.rst b/docs/api/api_python/mindspore/mindspore.SparseTensor.rst index 970979ad46b..70fcae4b75a 100644 --- a/docs/api/api_python/mindspore/mindspore.SparseTensor.rst +++ b/docs/api/api_python/mindspore/mindspore.SparseTensor.rst @@ -7,7 +7,8 @@ mindspore.SparseTensor `SparseTensor` 只能在 `Cell` 的构造方法中使用。 - 目前不支持PyNative模式。 + .. note:: + 目前不支持PyNative模式。 对于稠密张量,其 `SparseTensor(indices, values, dense_shape)` 具有 `dense[indices[i]] = values[i]` 。 diff --git a/docs/api/api_python/mindspore/mindspore.Tensor.rst b/docs/api/api_python/mindspore/mindspore.Tensor.rst index bdf2a4c7da3..3cb68154f8d 100644 --- a/docs/api/api_python/mindspore/mindspore.Tensor.rst +++ b/docs/api/api_python/mindspore/mindspore.Tensor.rst @@ -12,7 +12,7 @@ mindspore.Tensor - **shape** (Union[tuple, list, int]) - 用于定义该Tensor的形状。如果指定了`input_data`,则无需设置该参数。默认值:None。 - **init** (Initializer) - 用于在并行模式中延迟Tensor的数据的初始化,如果指定该参数,则`dtype`和`shape`也必须被指定。不推荐在非自动并行之外的场景下使用该接口。只有当调用`Tensor.init_data`时,才会使用指定的`init`来初始化Tensor数据。默认值:None。 - **返回:** + **输出:** Tensor。 diff --git a/docs/api/api_python/nn/mindspore.nn.Accuracy.rst b/docs/api/api_python/nn/mindspore.nn.Accuracy.rst index b5172a901a3..e2a32409bad 100644 --- a/docs/api/api_python/nn/mindspore.nn.Accuracy.rst +++ b/docs/api/api_python/nn/mindspore.nn.Accuracy.rst @@ -17,7 +17,7 @@ mindspore.nn.Accuracy - **eval_type** (str) - 评估的数据集的类型,支持'classification'和'multilabel'。'classification'为单标签分类场景,'multilabel'为多标签分类场景。 默认值:'classification'。 - **示例:** + **样例:** >>> import numpy as np >>> import mindspore diff --git a/docs/api/api_python/nn/mindspore.nn.AdamOffload.rst b/docs/api/api_python/nn/mindspore.nn.AdamOffload.rst index 086b83a3330..2735805fb7e 100644 --- a/docs/api/api_python/nn/mindspore.nn.AdamOffload.rst +++ b/docs/api/api_python/nn/mindspore.nn.AdamOffload.rst @@ -1,7 +1,7 @@ mindspore.nn.AdamOffload ========================= -.. py:class:: mindspore.nn.AdamOffload(params, learning_rate=1e-3, beta1=0.9, beta2=0.999, eps=1e-08, use_locking=False, use_nesterov=False, weight_decay=0.0, loss_scale=1.0) +.. py:class:: mindspore.nn.AdamOffload(params, learning_rate=1e-3, beta1=0.9, beta2=0.999, eps=1e-8, use_locking=False, use_nesterov=False, weight_decay=0.0, loss_scale=1.0) 此优化器在主机CPU上运行Adam优化算法,设备上仅执行网络参数的更新,最大限度地降低内存成本。虽然会增加性能开销,但优化器可以运行更大的模型。 @@ -19,7 +19,8 @@ mindspore.nn.AdamOffload :math:`m` 代表第一个矩向量 `moment1` , :math:`v` 代表第二个矩向量 `moment2`,:math:`g` 代表 `gradients`,:math:`l` 代表缩放因子,:math:`\beta_1,\beta_2` 代表 `beta1` 和 `beta2`,:math:`t` 代表当前step,:math:`beta_1^t` 和 :math:`beta_2^t` 代表 `beta1_power` 和 `beta2_power`,:math:`\alpha` 代表 `learning_rate`,:math:`w` 代表 `params`,:math:`\epsilon` 代表 `eps` 。 - .. note::此优化器目前仅支持图模式。 + .. note:: + 此优化器目前仅支持图模式。 .. include:: mindspore.nn.optim_note_weight_decay.rst diff --git a/docs/api/api_python/nn/mindspore.nn.AdamWeightDecay.rst b/docs/api/api_python/nn/mindspore.nn.AdamWeightDecay.rst index c11c0eced2e..68a09f5c733 100644 --- a/docs/api/api_python/nn/mindspore.nn.AdamWeightDecay.rst +++ b/docs/api/api_python/nn/mindspore.nn.AdamWeightDecay.rst @@ -1,7 +1,7 @@ mindspore.nn.AdamWeightDecay =============================== -.. py:class:: mindspore.nn.AdamWeightDecay(params, learning_rate=1e-3, beta1=0.9, beta2=0.999, eps=1e-06, weight_decay=0.0) +.. py:class:: mindspore.nn.AdamWeightDecay(params, learning_rate=1e-3, beta1=0.9, beta2=0.999, eps=1e-6, weight_decay=0.0) 实现权重衰减Adam算法。 @@ -50,11 +50,11 @@ mindspore.nn.AdamWeightDecay **输入:** - - **gradients** (tuple[Tensor]) - `params` 的梯度,shape与 `params` 相同。 + **gradients** (tuple[Tensor]) - `params` 的梯度,shape与 `params` 相同。 **输出:** - - **tuple** [bool],所有元素都为True。 + **tuple** [bool],所有元素都为True。 **异常:** diff --git a/docs/api/api_python/nn/mindspore.nn.CellList.rst b/docs/api/api_python/nn/mindspore.nn.CellList.rst index 5ce5dd8d2f2..74583c5533d 100644 --- a/docs/api/api_python/nn/mindspore.nn.CellList.rst +++ b/docs/api/api_python/nn/mindspore.nn.CellList.rst @@ -61,5 +61,5 @@ mindspore.nn.CellList **参数:** - **index** (int) - 给定的列表索引。 - **cell** (Cell) - 要插入的Cell子类。 \ No newline at end of file + - **index** (int) - 给定的列表索引。 + - **cell** (Cell) - 要插入的Cell子类。 \ No newline at end of file diff --git a/docs/api/api_python/nn/mindspore.nn.DistributedGradReducer.rst b/docs/api/api_python/nn/mindspore.nn.DistributedGradReducer.rst index 997de66cb66..44afb0ff42f 100644 --- a/docs/api/api_python/nn/mindspore.nn.DistributedGradReducer.rst +++ b/docs/api/api_python/nn/mindspore.nn.DistributedGradReducer.rst @@ -1,7 +1,7 @@ mindspore.nn.DistributedGradReducer =================================== -.. py:class:: mindspore.nn.DistributedGradReducer(parameters, mean=True, degree=None, fusion_type=1, group='hccl_world_group') +.. py:class:: mindspore.nn.DistributedGradReducer(parameters, mean=True, degree=None, fusion_type=1, group=GlobalComm.WORLD_COMM_GROUP) 分布式优化器。 @@ -9,10 +9,10 @@ mindspore.nn.DistributedGradReducer **参数:** - - **parameters** (list) - 需要更新的参数。 - - **mean** (bool) - 当mean为True时,对AllReduce之后的梯度求均值。默认值:False。 - - **degree** (int) - 平均系数,通常等于设备编号。默认值:None。 - - **fusion_type** (int) - AllReduce算子的融合类型。默认值:1。 + - **parameters** (list) - 需要更新的参数。 + - **mean** (bool) - 当mean为True时,对AllReduce之后的梯度求均值。默认值:False。 + - **degree** (int) - 平均系数,通常等于设备编号。默认值:None。 + - **fusion_type** (int) - AllReduce算子的融合类型。默认值:1。 **异常:** diff --git a/docs/api/api_python/nn/mindspore.nn.FTRL.rst b/docs/api/api_python/nn/mindspore.nn.FTRL.rst index 097cbc0cc93..25698ead109 100644 --- a/docs/api/api_python/nn/mindspore.nn.FTRL.rst +++ b/docs/api/api_python/nn/mindspore.nn.FTRL.rst @@ -30,7 +30,7 @@ mindspore.nn.FTRL .. include:: mindspore.nn.optim_note_weight_decay.rst - **参数:** + **参数:** - **params** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params": @@ -57,7 +57,7 @@ mindspore.nn.FTRL **输入:** - - **grads** (tuple[Tensor]) - 优化器中 `params` 的梯度,shape与优化器中的 `params` 相同。 + **grads** (tuple[Tensor]) - 优化器中 `params` 的梯度,shape与优化器中的 `params` 相同。 **输出:** diff --git a/docs/api/api_python/nn/mindspore.nn.GELU.rst b/docs/api/api_python/nn/mindspore.nn.GELU.rst index 0ab91176efa..da7b008c71c 100644 --- a/docs/api/api_python/nn/mindspore.nn.GELU.rst +++ b/docs/api/api_python/nn/mindspore.nn.GELU.rst @@ -1,7 +1,7 @@ mindspore.nn.GELU ================== -.. py:class:: mindspore.nn.GELU +.. py:class:: mindspore.nn.GELU(approximate=True) 高斯误差线性单元激活函数(Gaussian error linear unit activation function)。 @@ -17,9 +17,17 @@ mindspore.nn.GELU GELU相关图参见 `GELU `_ 。 + **参数:** + + **approximate** (bool): 是否启用approximation,默认值:True。如果approximate的值为True,则高斯误差线性激活函数为: + + :math:`0.5 * x * (1 + tanh(sqrt(2 / pi) * (x + 0.044715 * x^3)))` , + + 否则为: :math:`x * P(X <= x) = 0.5 * x * (1 + erf(x / sqrt(2)))`, where P(X) ~ N(0, 1) 。 + **输入:** - - **x** (Tensor) - 用于计算GELU的Tensor。数据类型为float16或float32。shape是 :math:`(N,*)` , :math:`*` 表示任意的附加维度数。 + **x** (Tensor) - 用于计算GELU的Tensor。数据类型为float16或float32。shape是 :math:`(N,*)` , :math:`*` 表示任意的附加维度数。 **输出:** @@ -27,7 +35,7 @@ mindspore.nn.GELU **异常:** - - **TypeError** - `x` 的数据类型既不是float16也不是float32。 + **TypeError** - `x` 的数据类型既不是float16也不是float32。 **支持平台:** diff --git a/docs/api/api_python/nn/mindspore.nn.L1Loss.rst b/docs/api/api_python/nn/mindspore.nn.L1Loss.rst index 19d19a60c4c..1edc85ea757 100644 --- a/docs/api/api_python/nn/mindspore.nn.L1Loss.rst +++ b/docs/api/api_python/nn/mindspore.nn.L1Loss.rst @@ -35,7 +35,6 @@ mindspore.nn.L1Loss **异常:** **ValueError** - `reduction` 不为"mean"、"sum"或"none"。 - **ValueError** - `logits` 和 `labels` 的shape不同,且不能互相广播。 **支持平台:** diff --git a/docs/api/api_python/nn/mindspore.nn.LazyAdam.rst b/docs/api/api_python/nn/mindspore.nn.LazyAdam.rst index 2e73f921508..ec00ed58e36 100644 --- a/docs/api/api_python/nn/mindspore.nn.LazyAdam.rst +++ b/docs/api/api_python/nn/mindspore.nn.LazyAdam.rst @@ -29,7 +29,7 @@ mindspore.nn.LazyAdam **参数:** - - **param** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params": + - **params** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params": .. include:: mindspore.nn.optim_group_param.rst .. include:: mindspore.nn.optim_group_lr.rst diff --git a/docs/api/api_python/nn/mindspore.nn.NaturalExpDecayLR.rst b/docs/api/api_python/nn/mindspore.nn.NaturalExpDecayLR.rst index cde45c59009..2f07bd41de5 100644 --- a/docs/api/api_python/nn/mindspore.nn.NaturalExpDecayLR.rst +++ b/docs/api/api_python/nn/mindspore.nn.NaturalExpDecayLR.rst @@ -46,7 +46,7 @@ mindspore.nn.NaturalExpDecayLR ``Ascend`` ``GPU`` ``CPU`` - **样例:** + **样例:** >>> import mindspore >>> from mindspore import Tensor, nn diff --git a/docs/api/api_python/nn/mindspore.nn.Optimizer.rst b/docs/api/api_python/nn/mindspore.nn.Optimizer.rst index 53213e5e30b..350eb86dd5f 100644 --- a/docs/api/api_python/nn/mindspore.nn.Optimizer.rst +++ b/docs/api/api_python/nn/mindspore.nn.Optimizer.rst @@ -16,7 +16,7 @@ mindspore.nn.Optimizer .. include:: mindspore.nn.optim_arg_dynamic_lr.rst - - **parameters (Union[list[Parameter], list[dict]])** - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params": + - **parameters** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params": .. include:: mindspore.nn.optim_group_param.rst .. include:: mindspore.nn.optim_group_lr.rst diff --git a/docs/api/api_python/nn/mindspore.nn.PipelineCell.rst b/docs/api/api_python/nn/mindspore.nn.PipelineCell.rst index a2ee42e12d9..37393a1888b 100644 --- a/docs/api/api_python/nn/mindspore.nn.PipelineCell.rst +++ b/docs/api/api_python/nn/mindspore.nn.PipelineCell.rst @@ -5,12 +5,12 @@ .. note:: micro_size必须大于或等于流水线stage的个数。 - ** 参数:** + ** 参数:** - **network** (Cell) - 要修饰的目标网络。 - **micro_size** (int) - MicroBatch大小。 - **示例:** + **样例:** >>> net = Net() >>> net = PipelineCell(net, 4) diff --git a/docs/api/api_python/nn/mindspore.nn.ProximalAdagrad.rst b/docs/api/api_python/nn/mindspore.nn.ProximalAdagrad.rst index e4a995fd6a7..4ff97f352e0 100644 --- a/docs/api/api_python/nn/mindspore.nn.ProximalAdagrad.rst +++ b/docs/api/api_python/nn/mindspore.nn.ProximalAdagrad.rst @@ -26,7 +26,7 @@ mindspore.nn.ProximalAdagrad **参数:** - - **param** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params": + - **params** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params": .. include:: mindspore.nn.optim_group_param.rst .. include:: mindspore.nn.optim_group_lr.rst diff --git a/docs/api/api_python/nn/mindspore.nn.SmoothL1Loss.rst b/docs/api/api_python/nn/mindspore.nn.SmoothL1Loss.rst index 064459861f7..f465dbe067c 100644 --- a/docs/api/api_python/nn/mindspore.nn.SmoothL1Loss.rst +++ b/docs/api/api_python/nn/mindspore.nn.SmoothL1Loss.rst @@ -35,9 +35,7 @@ mindspore.nn.SmoothL1Loss **异常:** - **TypeError** - `beta` 不是float。 - - **TypeError** - `logits` 或 `labels` 不是Tensor。 - **TypeError** - `logits` 或 `labels` 的数据类型既不是float16,也不是float32。 - - **TypeError** - `logits` 或 `labels` 的数据类型不相同。 - **ValueError** - `beta` 小于或等于0。 - **ValueError** - `logits` 的shape与 `labels` 不同。 diff --git a/docs/api/api_python/nn/mindspore.nn.TopKCategoricalAccuracy.rst b/docs/api/api_python/nn/mindspore.nn.TopKCategoricalAccuracy.rst index 59a29b96578..ae407856e9c 100644 --- a/docs/api/api_python/nn/mindspore.nn.TopKCategoricalAccuracy.rst +++ b/docs/api/api_python/nn/mindspore.nn.TopKCategoricalAccuracy.rst @@ -10,7 +10,7 @@ mindspore.nn.TopKCategoricalAccuracy **参数:** - - **k (int)** - 指定要计算的top-k分类正确率。 + **k (int)** - 指定要计算的top-k分类正确率。 **异常:** diff --git a/docs/api/api_python/nn/mindspore.nn.TrainOneStepWithLossScaleCell.rst b/docs/api/api_python/nn/mindspore.nn.TrainOneStepWithLossScaleCell.rst index 8c04ef72946..31cbdc45f03 100644 --- a/docs/api/api_python/nn/mindspore.nn.TrainOneStepWithLossScaleCell.rst +++ b/docs/api/api_python/nn/mindspore.nn.TrainOneStepWithLossScaleCell.rst @@ -82,25 +82,27 @@ mindspore.nn.TrainOneStepWithLossScaleCell 溢出检测的目标过程执行完成后,获取溢出结果。继承该类自定义训练网络时,可复用该接口。 - **输入:** + **参数:** - **status** (object) - 用于检测溢出的状态实例。 - **compute_output** - 对特定计算过程进行溢出检测时,将 `compute_output` 设置为该计算过程的输出,以确保在执行计算之前获取了 `status`。 - **输出:** + **返回:** bool,是否发生溢出。 .. py:method:: process_loss_scale(overflow) - 根据溢出状态计算梯度放大系数。继承该类自定义训练网络时,可复用该接口。 + 根据溢出状态计算梯度放大系数。 + + 继承该类自定义训练网络时,可复用该接口。 - **输入:** + **参数:** - - **overflow** (bool) - 是否发生溢出。 + **overflow** (bool) - 是否发生溢出。 - **输出:** + **返回:** bool,溢出状态,即输入。 @@ -109,9 +111,9 @@ mindspore.nn.TrainOneStepWithLossScaleCell 如果使用了Tensor类型的 `scale_sense` ,可调用此函数修改它的值。 - **输入:** + **参数:** - - **sens** (Tensor)- 新的梯度放大系数,其shape和类型需要与原始 `scale_sense` 相同。 + **sens** (Tensor)- 新的梯度放大系数,其shape和类型需要与原始 `scale_sense` 相同。 .. py:method:: start_overflow_check(pre_cond, compute_input) @@ -119,11 +121,11 @@ mindspore.nn.TrainOneStepWithLossScaleCell 指定参数 `pre_cond` 和 `compute_input` ,以确保在正确的时间清除溢出状态。以当前接口为例,我们需要在损失函数计算后进行清除状态,在梯度计算过程中检测溢出。在这种情况下,`pre_cond` 应为损失函数的输出,而 `compute_input` 应为梯度计算函数的输入。继承该类自定义训练网络时,可复用该接口。 - **输入:** + **参数:** - **pre_cond** (Tensor) -启动溢出检测的先决条件。它决定溢出状态清除和先前处理的执行顺序。它确保函数 `start_overflow` 在执行完先决条件后清除状态。 - **compute_input** (object) - 后续运算的输入。需要对特定的计算过程进行溢出检测。将 `compute_input` 设置这一计算过程的输入,以确保在执行该计算之前清除了溢出状态。 - **输出:** + **返回:** - - **Tuple** [object, object],GPU后端的第一个值为False,而其他后端的第一个值是NPUAllocFloatStatus的实例。该值用于在 `get_overflow_status` 期间检测溢出。第二个值与 `compute_input` 的输入相同,用于控制执行序。 + **Tuple** [object, object],GPU后端的第一个值为False,而其他后端的第一个值是NPUAllocFloatStatus的实例。该值用于在 `get_overflow_status` 期间检测溢出。第二个值与 `compute_input` 的输入相同,用于控制执行序。 diff --git a/docs/api/api_python/nn/mindspore.nn.conv2d.rst b/docs/api/api_python/nn/mindspore.nn.conv2d.rst index 365d1bb11ee..d12a46b08e5 100644 --- a/docs/api/api_python/nn/mindspore.nn.conv2d.rst +++ b/docs/api/api_python/nn/mindspore.nn.conv2d.rst @@ -23,23 +23,23 @@ mindspore.nn.Conv2d - **kernel_size** (`Union[int, tuple[int]]`) – 指定二维卷积窗口的高度和宽度。数据类型为整型或2个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。2个整数的tuple分别表示卷积核的高度和宽度。 - **stride** (`Union[int, tuple[int]]`) – 步长大小。数据类型为整型或2个整型的tuple。一个整数表示在高度和宽度方向的滑动步长均为该值。2个整数的tuple分别表示在高度和宽度方向的滑动步长。默认值:1。 - - **pad_mode** (`str`) – 指定填充模式。可选值为“same”,“valid”,“pad”。默认值:“same”。 + - **pad_mode** (`str`) – 指定填充模式。可选值为“same”,“valid”,“pad”。默认值:“same”。 - - **same**:采用补全方式。输出的高度和宽度与输入 `x` 一致。填充总数将在水平和垂直方向进行计算。并尽可能均匀分布到顶部、底部、左侧和右侧。否则,最后一次将从底部和右侧进行额外的填充。若设置该模式,`padding` 必须为0。 - - **valid**:采用丢弃方式。在不填充的前提下返回可能大的高度和宽度的输出。多余的像素会被丢弃。若设置该模式,`padding` 必须为0。 - - **pad**:输入 `x` 两侧的隐式填充。`padding` 的数量将填充到输入Tensor边框上。`padding` 必须大于或等于0。 + - **same**:采用补全方式。输出的高度和宽度与输入 `x` 一致。填充总数将在水平和垂直方向进行计算。并尽可能均匀分布到顶部、底部、左侧和右侧。否则,最后一次将从底部和右侧进行额外的填充。若设置该模式,`padding` 必须为0。 + - **valid**:采用丢弃方式。在不填充的前提下返回可能大的高度和宽度的输出。多余的像素会被丢弃。若设置该模式,`padding` 必须为0。 + - **pad**:输入 `x` 两侧的隐式填充。`padding` 的数量将填充到输入Tensor边框上。`padding` 必须大于或等于0。 - - **padding** (`Union[int, tuple[int]]`) – 输入 `x` 两侧的隐式填充。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple,那么上、下、左、右的填充分别等于 `padding[0]` 、 `padding[1]` 、 `padding[2]` 和 `padding[3]` 。默认值:0。 - - **dilation** (`Union[int, tuple[int]]`) – 指定用于扩张卷积的扩张速率。数据类型为整型或具有2个整型的tuple。如果设置 :math:`k > 1` ,则每个采样位置将跳过 :math:`k-1` 个像素。其值必须大于或等于1,并以输入的高度和宽度为边界。默认值:1。 - - **group** (`int`) – 将过滤器分组, `in_channels` 和 `out_channels` 必须被组数整除。如果组数等于 `in_channels` 和 `out_channels` ,这个二维卷积层也被称为二维深度卷积层。默认值:1. - - **has_bias** (`bool`) – 指定图层是否使用偏置向量。默认值:False。 - - **weight_init** (`Union[Tensor, str, Initializer, numbers.Number]`) – 卷积核的初始化方法。它可以是Tensor,str,初始化实例或numbers.Number。当使用str时,可选“TruncatedNormal”,“Normal”,“Uniform”,“HeUniform”和“XavierUniform”分布以及常量“One”和“Zero”分布的值,可接受别名“ xavier_uniform”,“ he_uniform”,“ ones”和“ zeros”。上述字符串大小写均可。更多细节请参考Initializer的值。默认值:“normal”。 - - **bias_init** (`Union[Tensor, str, Initializer, numbers.Number]`) – 偏置向量的初始化方法。可以使用的初始化方法和字符串与“weight_init”相同。更多细节请参考Initializer的值。默认值:“zeros”。 - - **data_format** (`str`) – 数据格式的可选值有“NHWC”,“NCHW”。默认值:“NCHW”。 + - **padding** (`Union[int, tuple[int]]`) – 输入 `x` 两侧的隐式填充。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple,那么上、下、左、右的填充分别等于 `padding[0]` 、 `padding[1]` 、 `padding[2]` 和 `padding[3]` 。默认值:0。 + - **dilation** (`Union[int, tuple[int]]`) – 指定用于扩张卷积的扩张速率。数据类型为整型或具有2个整型的tuple。如果设置 :math:`k > 1` ,则每个采样位置将跳过 :math:`k-1` 个像素。其值必须大于或等于1,并以输入的高度和宽度为边界。默认值:1。 + - **group** (`int`) – 将过滤器分组, `in_channels` 和 `out_channels` 必须被组数整除。如果组数等于 `in_channels` 和 `out_channels` ,这个二维卷积层也被称为二维深度卷积层。默认值:1. + - **has_bias** (`bool`) – 指定图层是否使用偏置向量。默认值:False。 + - **weight_init** (`Union[Tensor, str, Initializer, numbers.Number]`) – 卷积核的初始化方法。它可以是Tensor,str,初始化实例或numbers.Number。当使用str时,可选“TruncatedNormal”,“Normal”,“Uniform”,“HeUniform”和“XavierUniform”分布以及常量“One”和“Zero”分布的值,可接受别名“ xavier_uniform”,“ he_uniform”,“ ones”和“ zeros”。上述字符串大小写均可。更多细节请参考Initializer的值。默认值:“normal”。 + - **bias_init** (`Union[Tensor, str, Initializer, numbers.Number]`) – 偏置向量的初始化方法。可以使用的初始化方法和字符串与“weight_init”相同。更多细节请参考Initializer的值。默认值:“zeros”。 + - **data_format** (`str`) – 数据格式的可选值有“NHWC”,“NCHW”。默认值:“NCHW”。 **输入:** - - **x** (Tensor) - Shape为 :math:`(N, C_{in}, H_{in}, W_{in})` 或者 :math:`(N, H_{in}, W_{in}, C_{in})` 的Tensor。 + **x** (Tensor) - Shape为 :math:`(N, C_{in}, H_{in}, W_{in})` 或者 :math:`(N, H_{in}, W_{in}, C_{in})` 的Tensor。 **输出:** diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.bijector.Bijector.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.bijector.Bijector.rst index 58e37adf33f..5d4a0217ce5 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.bijector.Bijector.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.bijector.Bijector.rst @@ -28,13 +28,14 @@ mindspore.nn.probability.bijector.Bijector - **value** (Tensor) - 输入数据。 - **para** (Tensor) - Bijector参数。 + - **kwargs** (dict) - 函数需要的关键字参数字典。 .. py:method:: construct(name, *args, **kwargs) 重写Cell中的 `construct` 。 - .. note:: - 支持的函数包括:'forward'、'inverse'、'forward_log_jacobian'、'inverse_log_jacobian'。 + .. note:: + 支持的函数包括:'forward'、'inverse'、'forward_log_jacobian'、'inverse_log_jacobian'。 **参数:** diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.bijector.Invert.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.bijector.Invert.rst index d830ad8ad35..a85c078e9db 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.bijector.Invert.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.bijector.Invert.rst @@ -7,7 +7,7 @@ mindspore.nn.probability.bijector.Invert **参数:** - - **Bijector** (Bijector) - 基础Bijector(Base Bijector)。 + - **bijector** (Bijector) - 基础Bijector(Base Bijector)。 - **name** (str) - Bijector名称。默认值:""。当name设置为""时,它实际上是'Invert' + Bijector.name。 **支持平台:** diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.bijector.PowerTransform.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.bijector.PowerTransform.rst index 70d1a25fced..f75161402cc 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.bijector.PowerTransform.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.bijector.PowerTransform.rst @@ -1,7 +1,7 @@ mindspore.nn.probability.bijector.PowerTransform ================================================= -.. py:class:: mindspore.nn.probability.bijector.PowerTransform(power=0.0, name='PowerTransform') +.. py:class:: mindspore.nn.probability.bijector.PowerTransform(power=0., name='PowerTransform') 乘方Bijector(Power Bijector)。 此Bijector执行如下操作: diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Bernoulli.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Bernoulli.rst index 8ad46d8b96e..7c6700e9a78 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Bernoulli.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Bernoulli.rst @@ -1,7 +1,7 @@ mindspore.nn.probability.distribution.Bernoulli ================================================ -.. py:class:: mindspore.nn.probability.distribution.Bernoulli(probs=None, seed=None, dtype=mindspore.int32, name='Bernoulli') +.. py:class:: mindspore.nn.probability.distribution.Bernoulli(probs=None, seed=None, dtype=mstype.int32, name='Bernoulli') 伯努利分布(Bernoulli Distribution)。 diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Beta.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Beta.rst index 3ac20b553ee..5e69ec66da4 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Beta.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Beta.rst @@ -1,7 +1,7 @@ mindspore.nn.probability.distribution.Beta ================================================ -.. py:class:: mindspore.nn.probability.distribution.Beta(concentration1=None, concentration0=None, seed=None, dtype=mindspore.float32, name='Beta') +.. py:class:: mindspore.nn.probability.distribution.Beta(concentration1=None, concentration0=None, seed=None, dtype=mstype.float32, name='Beta') 贝塔分布(Beta Distribution)。 diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Categorical.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Categorical.rst index b5d95e3b4f2..a7b2d891073 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Categorical.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Categorical.rst @@ -1,7 +1,7 @@ mindspore.nn.probability.distribution.Categorical ================================================== -.. py:class:: mindspore.nn.probability.distribution.Categorical(probs=None, seed=None, dtype=mindspore.int32, name='Categorical') +.. py:class:: mindspore.nn.probability.distribution.Categorical(probs=None, seed=None, dtype=mstype.float32, name='Categorical') 分类分布。 diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Cauchy.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Cauchy.rst index 6536e4d07db..799e2706bf5 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Cauchy.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Cauchy.rst @@ -1,7 +1,7 @@ mindspore.nn.probability.distribution.Cauchy ================================================ -.. py:class:: mindspore.nn.probability.distribution.Cauchy(loc=None, scale=None, seed=None, dtype=mindspore.float32, name='Cauchy') +.. py:class:: mindspore.nn.probability.distribution.Cauchy(loc=None, scale=None, seed=None, dtype=mstype.float32, name='Cauchy') 柯西分布(Cauchy distribution)。 diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Distribution.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Distribution.rst index 1f5385ba341..1d4fb000ae0 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Distribution.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Distribution.rst @@ -29,6 +29,9 @@ mindspore.nn.probability.distribution.Distribution - **args** (list) - 传递给子类的位置参数列表。 - **kwargs** (dict) - 传递给子类的关键字参数字典。 + .. note:: + 可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。 + .. py:method:: construct(name, *args, **kwargs) 重写Cell中的 `construct` 。 @@ -52,6 +55,9 @@ mindspore.nn.probability.distribution.Distribution - **dist** (str) - 分布的类型。 - **args** (list) - 传递给子类的位置参数列表。 - **kwargs** (dict) - 传递给子类的关键字参数字典。 + + .. note:: + Distribution b的 `dist_spec_args` 必须通过 `args` 或 `kwargs` 传递给函数。 传入Distribution a的 `dist_spec_args` 是可选的。 .. py:method:: entropy(*args, **kwargs) @@ -61,6 +67,9 @@ mindspore.nn.probability.distribution.Distribution - **args** (list) - 传递给子类的位置参数列表。 - **kwargs** (dict) - 传递给子类的关键字参数字典。 + + .. note:: + 可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。 .. py:method:: get_dist_args(*args, **kwargs) @@ -87,6 +96,9 @@ mindspore.nn.probability.distribution.Distribution - **dist** (str) - 分布的类型。 - **args** (list) - 传递给子类的位置参数列表。 - **kwargs** (dict) - 传递给子类的关键字参数字典。 + + .. note:: + Distribution b的 `dist_spec_args` 必须通过 `args` 或 `kwargs` 传递给函数。 传入Distribution a的 `dist_spec_args` 是可选的。 .. py:method:: log_cdf(value, *args, **kwargs) @@ -97,6 +109,9 @@ mindspore.nn.probability.distribution.Distribution - **value** (Tensor) - 要评估的值。 - **args** (list) - 传递给子类的位置参数列表。 - **kwargs** (dict) - 传递给子类的关键字参数字典。 + + .. note:: + 可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。 .. py:method:: log_prob(value, *args, **kwargs) @@ -107,6 +122,9 @@ mindspore.nn.probability.distribution.Distribution - **value** (Tensor) - 要评估的值。 - **args** (list) - 传递给子类的位置参数列表。 - **kwargs** (dict) - 传递给子类的关键字参数字典。 + + .. note:: + 可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。 .. py:method:: log_survival(value, *args, **kwargs) @@ -117,6 +135,9 @@ mindspore.nn.probability.distribution.Distribution - **value** (Tensor) - 要评估的值。 - **args** (list) - 传递给子类的位置参数列表。 - **kwargs** (dict) - 传递给子类的关键字参数字典。 + + .. note:: + 可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。 .. py:method:: mean(*args, **kwargs) @@ -126,6 +147,9 @@ mindspore.nn.probability.distribution.Distribution - **args** (list) - 传递给子类的位置参数列表。 - **kwargs** (dict) - 传递给子类的关键字参数字典。 + + .. note:: + 可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。 .. py:method:: mode(*args, **kwargs) @@ -135,6 +159,9 @@ mindspore.nn.probability.distribution.Distribution - **args** (list) - 传递给子类的位置参数列表。 - **kwargs** (dict) - 传递给子类的关键字参数字典。 + + .. note:: + 可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。 .. py:method:: prob(value, *args, **kwargs) @@ -146,6 +173,9 @@ mindspore.nn.probability.distribution.Distribution - **args** (list) - 传递给子类的位置参数列表。 - **kwargs** (dict) - 传递给子类的关键字参数字典。 + .. note:: + 可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。 + .. py:method:: sample(*args, **kwargs) 采样函数。 @@ -155,6 +185,9 @@ mindspore.nn.probability.distribution.Distribution - **shape** (tuple) - 样本的shape。 - **args** (list) - 传递给子类的位置参数列表。 - **kwargs** (dict) - 传递给子类的关键字参数字典。 + + .. note:: + 可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。 .. py:method:: sd(*args, **kwargs) @@ -164,6 +197,9 @@ mindspore.nn.probability.distribution.Distribution - **args** (list) - 传递给子类的位置参数列表。 - **kwargs** (dict) - 传递给子类的关键字参数字典。 + + .. note:: + 可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。 .. py:method:: survival_function(value, *args, **kwargs) @@ -175,6 +211,9 @@ mindspore.nn.probability.distribution.Distribution - **args** (list) - 传递给子类的位置参数列表。 - **kwargs** (dict) - 传递给子类的关键字参数字典。 + .. note:: + 可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。 + .. py:method:: var(*args, **kwargs) 评估方差。 @@ -183,4 +222,7 @@ mindspore.nn.probability.distribution.Distribution - **args** (list) - 传递给子类的位置参数列表。 - **kwargs** (dict) - 传递给子类的关键字参数字典。 + + .. note:: + 可以通过 `args` 或 `kwargs` 传递其 `dist_spec_args` 来选择性地将Distribution传递给函数。 diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Exponential.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Exponential.rst index 5b79d9ff6ba..e5e01ab2057 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Exponential.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Exponential.rst @@ -1,7 +1,7 @@ mindspore.nn.probability.distribution.Exponential =================================================== -.. py:class:: mindspore.nn.probability.distribution.Exponential(rate=None, seed=None, dtype=mindspore.float32, name='Exponential') +.. py:class:: mindspore.nn.probability.distribution.Exponential(rate=None, seed=None, dtype=mstype.float32, name='Exponential') 示例类:指数分布(Exponential Distribution)。 diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Gamma.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Gamma.rst index 9c70a952cab..243da9e85a1 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Gamma.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Gamma.rst @@ -1,7 +1,7 @@ mindspore.nn.probability.distribution.Gamma ================================================ -.. py:class:: mindspore.nn.probability.distribution.Gamma(concentration=None, rate=None, seed=None, dtype=mindspore.float32, name='Gamma') +.. py:class:: mindspore.nn.probability.distribution.Gamma(concentration=None, rate=None, seed=None, dtype=mstype.float3, name='Gamma') 伽马分布(Gamma distribution)。 diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Geometric.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Geometric.rst index 5b03584e97d..157e4212ad3 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Geometric.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Geometric.rst @@ -1,7 +1,7 @@ mindspore.nn.probability.distribution.Geometric ================================================ -.. py:class:: mindspore.nn.probability.distribution.Geometric(probs=None, seed=None, dtype=mindspore.int32, name='Geometric') +.. py:class:: mindspore.nn.probability.distribution.Geometric(probs=None, seed=None, dtype=mstype.int32, name='Geometric') 几何分布(Geometric Distribution)。 diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Gumbel.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Gumbel.rst index 94a6f6cf8b1..e88a3982440 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Gumbel.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Gumbel.rst @@ -1,7 +1,7 @@ mindspore.nn.probability.distribution.Gumbel ================================================ -.. py:class:: mindspore.nn.probability.distribution.Gumbel(loc, scale, seed=0, dtype=mindspore.float32, name='Gumbel') +.. py:class:: mindspore.nn.probability.distribution.Gumbel(loc, scale, seed=0, dtype=mstype.float32, name='Gumbel') 耿贝尔分布(Gumbel distribution)。 diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.LogNormal.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.LogNormal.rst index 466c5418df2..ba2cefd37cd 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.LogNormal.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.LogNormal.rst @@ -1,7 +1,7 @@ mindspore.nn.probability.distribution.LogNormal ================================================ -.. py:class:: mindspore.nn.probability.distribution.LogNormal(loc=None, scale=None, seed=0, dtype=mindspore.float32, name='LogNormal') +.. py:class:: mindspore.nn.probability.distribution.LogNormal(loc=None, scale=None, seed=0, dtype=mstype.float32, name='LogNormal') 对数正态分布(LogNormal distribution)。 对数正态分布是随机变量的连续概率分布,变量的对数为正态分布。它被构造为正态分布的指数变换。 diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Logistic.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Logistic.rst index a991d6b8696..098d7091853 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Logistic.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Logistic.rst @@ -1,7 +1,7 @@ mindspore.nn.probability.distribution.Logistic ================================================ -.. py:class:: mindspore.nn.probability.distribution.Logistic(loc=None, scale=None, seed=None, dtype=mindspore.float32, name='Logistic') +.. py:class:: mindspore.nn.probability.distribution.Logistic(loc=None, scale=None, seed=None, dtype=mstype.float32, name='Logistic') 逻辑斯谛分布(Logistic distribution)。 diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Normal.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Normal.rst index 8d6c5d09821..7d8702015f9 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Normal.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Normal.rst @@ -1,7 +1,7 @@ mindspore.nn.probability.distribution.Normal ================================================ -.. py:class:: mindspore.nn.probability.distribution.Normal(mean=None, sd=None, seed=None, dtype=mindspore.float32, name='Normal') +.. py:class:: mindspore.nn.probability.distribution.Normal(mean=None, sd=None, seed=None, dtype=mstype.float32, name='Normal') 正态分布(Normal distribution)。 diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Poisson.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Poisson.rst index a0ca120d2c5..4ad6254f258 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Poisson.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Poisson.rst @@ -1,7 +1,7 @@ mindspore.nn.probability.distribution.Poisson ================================================ -.. py:class:: mindspore.nn.probability.distribution.Poisson(rate=None, seed=None, dtype=mindspore.float32, name='Poisson') +.. py:class:: mindspore.nn.probability.distribution.Poisson(rate=None, seed=None, dtype=mstype.float32, name='Poisson') 泊松分布(Poisson Distribution)。 diff --git a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Uniform.rst b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Uniform.rst index 8e522997bf7..5304878b090 100644 --- a/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Uniform.rst +++ b/docs/api/api_python/nn_probability/mindspore.nn.probability.distribution.Uniform.rst @@ -1,7 +1,7 @@ mindspore.nn.probability.distribution.Uniform ================================================ -.. py:class:: mindspore.nn.probability.distribution.Uniform(low=None, high=None, seed=None, dtype=mindspore.float32, name='Uniform') +.. py:class:: mindspore.nn.probability.distribution.Uniform(low=None, high=None, seed=None, dtype=mstype.float32, name='Uniform') 示例类:均匀分布(Uniform Distribution)。