fix error format for chinese python API.

This commit is contained in:
zhangyi 2021-12-05 16:06:57 +08:00
parent 461df2e9e0
commit 16c78f1999
15 changed files with 59 additions and 61 deletions

View File

@ -155,7 +155,8 @@
`special_first` 设置为默认值,则将 `special_tokens` 添加到词汇表最前面。
**返回:**
从数据集对象中构建出的词汇表对象。
从数据集对象中构建出的词汇表对象。
**样例:**
@ -324,7 +325,8 @@
- **func** (function) - 输入'ndarray'并返回一个'Dataset'对象的函数。
**返回:**
执行给定操作的数据集对象。
执行给定操作的数据集对象。
**样例:**

View File

@ -10,7 +10,7 @@ mindspore.dataset.SequentialSampler
- **start_index** (int, optional): 开始采样的索引。默认值为None从第一个ID开始
- **num_samples** (int, optional): 要采样的元素数量。默认值为None采样所有元素
*样例:**
**样例:**
>>> # 创建SequentialSampler
>>> sampler = ds.SequentialSampler()

View File

@ -11,37 +11,37 @@ mindspore.common.initializer
- **kwargs** (dict) `Initializer` 的关键字参数。
.. py:method:: mindspore.common.initializer.initializer(init, shape=None, dtype=mstype.float32)
.. py:function:: mindspore.common.initializer.initializer(init, shape=None, dtype=mstype.float32)
创建并初始化一个Tensor。
创建并初始化一个Tensor。
**参数:**
**参数:**
- **init** (Union[Tensor, str, Initializer, numbers.Number]) 初始化方式。
- **init** (Union[Tensor, str, Initializer, numbers.Number]) 初始化方式。
- **str** - `init` 是继承自 `Initializer` 的类的别名,实际使用时会调用相应的类。`init` 的值可以是"normal"、"ones"或"zeros"等。
- **Initializer** - `init` 是继承自 `Initializer` 用于初始化Tensor的类。
- **numbers.Number** - 调用常量来初始化张量。
- **str** - `init` 是继承自 `Initializer` 的类的别名,实际使用时会调用相应的类。`init` 的值可以是"normal"、"ones"或"zeros"等。
- **Initializer** - `init` 是继承自 `Initializer` 用于初始化Tensor的类。
- **numbers.Number** - 调用常量来初始化张量。
- **shape** (Union[[tuple, list, int]) - 被初始化的Tensor的shape默认值为None。
- **dtype** (mindspore.dtype) 被初始化的Tensor的数据类型默认值为 `mindspore.float32`
- **shape** (Union[[tuple, list, int]) - 被初始化的Tensor的shape默认值为None。
- **dtype** (mindspore.dtype) 被初始化的Tensor的数据类型默认值为 `mindspore.float32`
**返回:**
**返回:**
Tensor返回一个张量对象。
Tensor返回一个张量对象。
**异常:**
**异常:**
- **TypeError** - 参数 `init` 的类型不正确。
- **ValueError** - 通过 `init` 传入的Tensor的shape和作为参数传入的shape不一致。
- **TypeError** - 参数 `init` 的类型不正确。
- **ValueError** - 通过 `init` 传入的Tensor的shape和作为参数传入的shape不一致。
**样例:**
**样例:**
>>> import mindspore
>>> from mindspore.common.initializer import initializer, One
>>> tensor = initializer('ones', [1, 2, 3], mindspore.float32)
>>> tensor = initializer(One(), [1, 2, 3], mindspore.float32)
>>> tensor = initializer(0, [1, 2, 3], mindspore.float32)
>>> import mindspore
>>> from mindspore.common.initializer import initializer, One
>>> tensor = initializer('ones', [1, 2, 3], mindspore.float32)
>>> tensor = initializer(One(), [1, 2, 3], mindspore.float32)
>>> tensor = initializer(0, [1, 2, 3], mindspore.float32)
.. py:class:: mindspore.common.initializer.TruncatedNormal(sigma=0.01)

View File

@ -1,11 +1,9 @@
mindspore.context
===================
.. py:class:: mindspore.context
MindSpore上下文用于配置当前执行环境包括执行模式、执行后端和其他特性开关。
MindSpore上下文用于配置当前执行环境包括执行模式、执行后端和其他特性开关。
.. py:function:: set_context(**kwargs)
.. py:function:: mindspore.context.set_context(**kwargs)
设置运行环境的上下文。
@ -167,7 +165,7 @@
>>> context.set_context(load_compile_cache=True)
>>> context.set_context(pynative_synchronize=True)
.. py:function:: get_context(attr_key)
.. py:function:: mindspore.context.get_context(attr_key)
根据输入key获取上下文中的属性值。如果某些属性没有设置则会自动获取这些属性。
@ -188,7 +186,7 @@
>>> context.get_context("device_target")
>>> context.get_context("device_id")
.. py:function:: set_auto_parallel_context(**kwargs)
.. py:function:: mindspore.context.set_auto_parallel_context(**kwargs)
配置自动并行仅在Ascend和GPU上有效。
@ -261,7 +259,7 @@
>>> context.set_auto_parallel_context(all_reduce_fusion_config=[8, 160])
>>> context.set_auto_parallel_context(pipeline_stages=2)
.. py:function:: get_auto_parallel_context(attr_key)
.. py:function:: mindspore.context.get_auto_parallel_context(attr_key)
根据key获取自动并行的配置。
@ -277,7 +275,7 @@
**ValueError**输入key不在自动并行的配置列表中。
.. py:function:: reset_auto_parallel_context()
.. py:function:: mindspore.context.reset_auto_parallel_context()
重置自动并行的配置为默认值。
@ -308,7 +306,7 @@
MODE_LIST表示所有支持的并行模式的列表。
.. py:function:: set_ps_context(**kwargs)
.. py:function:: mindspore.context.set_ps_context(**kwargs)
设置参数服务器训练模式的上下文。
@ -343,7 +341,7 @@
>>> context.set_ps_context(enable_ps=True, enable_ssl=True, client_password='123456', server_password='123456')
.. py:function:: get_ps_context(attr_key)
.. py:function:: mindspore.context.get_ps_context(attr_key)
根据key获取参数服务器训练模式上下文中的属性值。
@ -370,8 +368,7 @@
>>> context.get_ps_context(enable_ps)
.. py:function:: reset_ps_context()
.. py:function:: mindspore.context.reset_ps_context()
将参数服务器训练模式上下文中的属性重置为默认值。各字段的含义及其默认值见'set_ps_context'接口。

View File

@ -3,11 +3,11 @@ mindspore.LossScaleManager
.. py:class:: mindspore.LossScaleManager
混合精度梯度放大系数loss scale管理器的抽象类。
混合精度梯度放大系数loss scale管理器的抽象类。
派生类需要实现该类的所有方法。 `get_loss_scale` 用于获取当前的梯度放大系数。 `update_loss_scale` 用于更新梯度放大系数,该方法将在训练过程中被调用。 `get_update_cell` 用于获取更新梯度放大系数的 `Cell` 实例,该实例将在训练过程中被调用。当前多使用 `get_update_cell` 方式。
派生类需要实现该类的所有方法。 `get_loss_scale` 用于获取当前的梯度放大系数。 `update_loss_scale` 用于更新梯度放大系数,该方法将在训练过程中被调用。 `get_update_cell` 用于获取更新梯度放大系数的 `Cell` 实例,该实例将在训练过程中被调用。当前多使用 `get_update_cell` 方式。
例如::class:`mindspore.FixedLossScaleManager`:class:`mindspore.DynamicLossScaleManager`
例如::class:`mindspore.FixedLossScaleManager`:class:`mindspore.DynamicLossScaleManager`
.. py:method:: get_loss_scale()

View File

@ -9,7 +9,7 @@ mindspore.nn.DynamicLossScaleUpdateCell
该类是 :class:`mindspore.nn.DynamicLossScaleManager``get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.TrainOneStepWithLossScaleCell` 会调用该Cell来更新梯度放大系数。
**参数:**
**参数:**
- **loss_scale_value** (float) - 初始的梯度放大系数。
- **scale_factor** (int) - 增减系数。
@ -28,7 +28,7 @@ mindspore.nn.DynamicLossScaleUpdateCell
``Ascend`` ``GPU``
**样例:**
**样例:**
>>> import numpy as np
>>> from mindspore import Tensor, Parameter, nn

View File

@ -60,11 +60,11 @@ mindspore.nn.FTRL
- **grads** (tuple[Tensor]) - 优化器中 `params` 的梯度shape与优化器中的 `params` 相同。
**输出:**
**输出:**
tuple[Parameter]更新的参数shape与 `params` 相同。
**异常:**
**异常:**
- **TypeError** - `initial_accum``learning_rate``lr_power``l1``l2``loss_scale` 不是float。
- **TypeError** - `parameters` 的元素不是Parameter或dict。
@ -74,11 +74,11 @@ mindspore.nn.FTRL
- **ValueError** - `loss_scale` 小于等于0。
- **ValueError** - `initial_accum``l1``l2` 小于0。
**支持平台:**
**支持平台:**
``Ascend`` ``GPU`` ``CPU``
**样例:**
**样例:**
>>> net = Net()
>>> #1) 所有参数使用相同的学习率和权重衰减
@ -100,4 +100,4 @@ mindspore.nn.FTRL
>>> model = Model(net, loss_fn=loss, optimizer=optim)
.. include::mindspore.nn.optim_target_unique_for_sparse.rst
.. include:: mindspore.nn.optim_target_unique_for_sparse.rst

View File

@ -7,7 +7,7 @@ mindspore.nn.FixedLossScaleUpdateCell
该类是 :class:`mindspore.nn.FixedLossScaleManager``get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.TrainOneStepWithLossScaleCell` 会调用该Cell。
**参数:**
**参数:**
- **loss_scale_value** (float) - 初始梯度放大系数。
@ -24,7 +24,7 @@ mindspore.nn.FixedLossScaleUpdateCell
``Ascend`` ``GPU``
**样例:**
**样例:**
>>> import numpy as np
>>> from mindspore import Tensor, Parameter, nn, ops

View File

@ -12,7 +12,7 @@ mindspore.nn.MAE
这里, :math:`n` 是bach size。
**样例:**
**样例:**
>>> import numpy as np
>>> from mindspore import nn, Tensor
@ -35,11 +35,11 @@ mindspore.nn.MAE
计算平均绝对差MAE
**返回:**
numpy.float64计算结果。
**异常:**
- **RuntimeError** - 样本总数为0。
.. py:method:: update(*inputs)
@ -51,5 +51,5 @@ mindspore.nn.MAE
- **inputs** - 输入 `y_pred``y` 来计算MAE其中 `y_pred``y` 的shape都是N-D它们的shape相同。
**异常:**
- **ValueError** - `inputs` 的数量不等于2。

View File

@ -129,4 +129,4 @@ mindspore.nn.Optimizer
tuple[Tensor],还原后的梯度。
.. include:: mindspore.nn.optim_target_unique_for_sparse.rst
.. include:: mindspore.nn.optim_target_unique_for_sparse.rst

View File

@ -1,4 +1,4 @@
mindspore.nn.polynomial_decay_lr
mindspore.nn.PolynomialDecayLR
====================================
.. py:class:: mindspore.nn.PolynomialDecayLR(learning_rate, end_learning_rate, decay_steps, power, update_decay_steps=False)

View File

@ -30,10 +30,10 @@ mindspore.nn.WarmUpLR
**异常:**
- **TypeError** - ** `learning_rate` 不是float。
- **TypeError** - ** `warmup_steps` 不是int。
- **ValueError** `warmup_steps` 小于1。
- **ValueError** `learning_rate` 小于或等于0。
- **TypeError** - `learning_rate` 不是float。
- **TypeError** - `warmup_steps` 不是int。
- **ValueError** - `warmup_steps` 小于1。
- **ValueError** - `learning_rate` 小于或等于0。
**支持平台:**

View File

@ -5,7 +5,7 @@ mindspore.nn.get_metric_fn
根据输入的 `name` 获取metric的方法。
**参数:**
**参数:**
- **name** (str) - metric的方法名可以通过 :class:`mindspore.nn.names` 接口获取。
- **args** - metric函数的参数。

View File

@ -5,7 +5,6 @@ mindspore.nn.names
获取所有metric的名称。
**返回:**
**返回:**
List所有metric的名称列表。