forked from mindspore-Ecosystem/mindspore
fix error format for chinese python API.
This commit is contained in:
parent
461df2e9e0
commit
16c78f1999
|
@ -155,7 +155,8 @@
|
|||
`special_first` 设置为默认值,则将 `special_tokens` 添加到词汇表最前面。
|
||||
|
||||
**返回:**
|
||||
从数据集对象中构建出的词汇表对象。
|
||||
|
||||
从数据集对象中构建出的词汇表对象。
|
||||
|
||||
**样例:**
|
||||
|
||||
|
@ -324,7 +325,8 @@
|
|||
- **func** (function) - 输入'ndarray'并返回一个'Dataset'对象的函数。
|
||||
|
||||
**返回:**
|
||||
执行给定操作的数据集对象。
|
||||
|
||||
执行给定操作的数据集对象。
|
||||
|
||||
**样例:**
|
||||
|
||||
|
|
|
@ -10,7 +10,7 @@ mindspore.dataset.SequentialSampler
|
|||
- **start_index** (int, optional): 开始采样的索引。(默认值为None,从第一个ID开始)
|
||||
- **num_samples** (int, optional): 要采样的元素数量。(默认值为None,采样所有元素)
|
||||
|
||||
*样例:**
|
||||
**样例:**
|
||||
|
||||
>>> # 创建SequentialSampler
|
||||
>>> sampler = ds.SequentialSampler()
|
||||
|
|
|
@ -11,37 +11,37 @@ mindspore.common.initializer
|
|||
|
||||
- **kwargs** (dict) – `Initializer` 的关键字参数。
|
||||
|
||||
.. py:method:: mindspore.common.initializer.initializer(init, shape=None, dtype=mstype.float32)
|
||||
.. py:function:: mindspore.common.initializer.initializer(init, shape=None, dtype=mstype.float32)
|
||||
|
||||
创建并初始化一个Tensor。
|
||||
创建并初始化一个Tensor。
|
||||
|
||||
**参数:**
|
||||
**参数:**
|
||||
|
||||
- **init** (Union[Tensor, str, Initializer, numbers.Number]) – 初始化方式。
|
||||
- **init** (Union[Tensor, str, Initializer, numbers.Number]) – 初始化方式。
|
||||
|
||||
- **str** - `init` 是继承自 `Initializer` 的类的别名,实际使用时会调用相应的类。`init` 的值可以是"normal"、"ones"或"zeros"等。
|
||||
- **Initializer** - `init` 是继承自 `Initializer` ,用于初始化Tensor的类。
|
||||
- **numbers.Number** - 调用常量来初始化张量。
|
||||
- **str** - `init` 是继承自 `Initializer` 的类的别名,实际使用时会调用相应的类。`init` 的值可以是"normal"、"ones"或"zeros"等。
|
||||
- **Initializer** - `init` 是继承自 `Initializer` ,用于初始化Tensor的类。
|
||||
- **numbers.Number** - 调用常量来初始化张量。
|
||||
|
||||
- **shape** (Union[[tuple, list, int]) - 被初始化的Tensor的shape,默认值为None。
|
||||
- **dtype** (mindspore.dtype) – 被初始化的Tensor的数据类型,默认值为 `mindspore.float32` 。
|
||||
- **shape** (Union[[tuple, list, int]) - 被初始化的Tensor的shape,默认值为None。
|
||||
- **dtype** (mindspore.dtype) – 被初始化的Tensor的数据类型,默认值为 `mindspore.float32` 。
|
||||
|
||||
**返回:**
|
||||
**返回:**
|
||||
|
||||
Tensor,返回一个张量对象。
|
||||
Tensor,返回一个张量对象。
|
||||
|
||||
**异常:**
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - 参数 `init` 的类型不正确。
|
||||
- **ValueError** - 通过 `init` 传入的Tensor的shape和作为参数传入的shape不一致。
|
||||
- **TypeError** - 参数 `init` 的类型不正确。
|
||||
- **ValueError** - 通过 `init` 传入的Tensor的shape和作为参数传入的shape不一致。
|
||||
|
||||
**样例:**
|
||||
**样例:**
|
||||
|
||||
>>> import mindspore
|
||||
>>> from mindspore.common.initializer import initializer, One
|
||||
>>> tensor = initializer('ones', [1, 2, 3], mindspore.float32)
|
||||
>>> tensor = initializer(One(), [1, 2, 3], mindspore.float32)
|
||||
>>> tensor = initializer(0, [1, 2, 3], mindspore.float32)
|
||||
>>> import mindspore
|
||||
>>> from mindspore.common.initializer import initializer, One
|
||||
>>> tensor = initializer('ones', [1, 2, 3], mindspore.float32)
|
||||
>>> tensor = initializer(One(), [1, 2, 3], mindspore.float32)
|
||||
>>> tensor = initializer(0, [1, 2, 3], mindspore.float32)
|
||||
|
||||
.. py:class:: mindspore.common.initializer.TruncatedNormal(sigma=0.01)
|
||||
|
||||
|
|
|
@ -1,11 +1,9 @@
|
|||
mindspore.context
|
||||
===================
|
||||
|
||||
.. py:class:: mindspore.context
|
||||
MindSpore上下文,用于配置当前执行环境,包括执行模式、执行后端和其他特性开关。
|
||||
|
||||
MindSpore上下文,用于配置当前执行环境,包括执行模式、执行后端和其他特性开关。
|
||||
|
||||
.. py:function:: set_context(**kwargs)
|
||||
.. py:function:: mindspore.context.set_context(**kwargs)
|
||||
|
||||
设置运行环境的上下文。
|
||||
|
||||
|
@ -167,7 +165,7 @@
|
|||
>>> context.set_context(load_compile_cache=True)
|
||||
>>> context.set_context(pynative_synchronize=True)
|
||||
|
||||
.. py:function:: get_context(attr_key)
|
||||
.. py:function:: mindspore.context.get_context(attr_key)
|
||||
|
||||
根据输入key获取上下文中的属性值。如果某些属性没有设置,则会自动获取这些属性。
|
||||
|
||||
|
@ -188,7 +186,7 @@
|
|||
>>> context.get_context("device_target")
|
||||
>>> context.get_context("device_id")
|
||||
|
||||
.. py:function:: set_auto_parallel_context(**kwargs)
|
||||
.. py:function:: mindspore.context.set_auto_parallel_context(**kwargs)
|
||||
|
||||
配置自动并行,仅在Ascend和GPU上有效。
|
||||
|
||||
|
@ -261,7 +259,7 @@
|
|||
>>> context.set_auto_parallel_context(all_reduce_fusion_config=[8, 160])
|
||||
>>> context.set_auto_parallel_context(pipeline_stages=2)
|
||||
|
||||
.. py:function:: get_auto_parallel_context(attr_key)
|
||||
.. py:function:: mindspore.context.get_auto_parallel_context(attr_key)
|
||||
|
||||
根据key获取自动并行的配置。
|
||||
|
||||
|
@ -277,7 +275,7 @@
|
|||
|
||||
**ValueError**:输入key不在自动并行的配置列表中。
|
||||
|
||||
.. py:function:: reset_auto_parallel_context()
|
||||
.. py:function:: mindspore.context.reset_auto_parallel_context()
|
||||
|
||||
重置自动并行的配置为默认值。
|
||||
|
||||
|
@ -308,7 +306,7 @@
|
|||
|
||||
MODE_LIST:表示所有支持的并行模式的列表。
|
||||
|
||||
.. py:function:: set_ps_context(**kwargs)
|
||||
.. py:function:: mindspore.context.set_ps_context(**kwargs)
|
||||
|
||||
设置参数服务器训练模式的上下文。
|
||||
|
||||
|
@ -343,7 +341,7 @@
|
|||
|
||||
>>> context.set_ps_context(enable_ps=True, enable_ssl=True, client_password='123456', server_password='123456')
|
||||
|
||||
.. py:function:: get_ps_context(attr_key)
|
||||
.. py:function:: mindspore.context.get_ps_context(attr_key)
|
||||
|
||||
根据key获取参数服务器训练模式上下文中的属性值。
|
||||
|
||||
|
@ -370,8 +368,7 @@
|
|||
|
||||
>>> context.get_ps_context(enable_ps)
|
||||
|
||||
|
||||
.. py:function:: reset_ps_context()
|
||||
.. py:function:: mindspore.context.reset_ps_context()
|
||||
|
||||
将参数服务器训练模式上下文中的属性重置为默认值。各字段的含义及其默认值见'set_ps_context'接口。
|
||||
|
||||
|
|
|
@ -3,11 +3,11 @@ mindspore.LossScaleManager
|
|||
|
||||
.. py:class:: mindspore.LossScaleManager
|
||||
|
||||
混合精度梯度放大系数(loss scale)管理器的抽象类。
|
||||
混合精度梯度放大系数(loss scale)管理器的抽象类。
|
||||
|
||||
派生类需要实现该类的所有方法。 `get_loss_scale` 用于获取当前的梯度放大系数。 `update_loss_scale` 用于更新梯度放大系数,该方法将在训练过程中被调用。 `get_update_cell` 用于获取更新梯度放大系数的 `Cell` 实例,该实例将在训练过程中被调用。当前多使用 `get_update_cell` 方式。
|
||||
派生类需要实现该类的所有方法。 `get_loss_scale` 用于获取当前的梯度放大系数。 `update_loss_scale` 用于更新梯度放大系数,该方法将在训练过程中被调用。 `get_update_cell` 用于获取更新梯度放大系数的 `Cell` 实例,该实例将在训练过程中被调用。当前多使用 `get_update_cell` 方式。
|
||||
|
||||
例如::class:`mindspore.FixedLossScaleManager` 和 :class:`mindspore.DynamicLossScaleManager` 。
|
||||
例如::class:`mindspore.FixedLossScaleManager` 和 :class:`mindspore.DynamicLossScaleManager` 。
|
||||
|
||||
.. py:method:: get_loss_scale()
|
||||
|
||||
|
|
|
@ -9,7 +9,7 @@ mindspore.nn.DynamicLossScaleUpdateCell
|
|||
|
||||
该类是 :class:`mindspore.nn.DynamicLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.TrainOneStepWithLossScaleCell` 会调用该Cell来更新梯度放大系数。
|
||||
|
||||
**参数:**
|
||||
**参数:**
|
||||
|
||||
- **loss_scale_value** (float) - 初始的梯度放大系数。
|
||||
- **scale_factor** (int) - 增减系数。
|
||||
|
@ -28,7 +28,7 @@ mindspore.nn.DynamicLossScaleUpdateCell
|
|||
|
||||
``Ascend`` ``GPU``
|
||||
|
||||
**样例:**
|
||||
**样例:**
|
||||
|
||||
>>> import numpy as np
|
||||
>>> from mindspore import Tensor, Parameter, nn
|
||||
|
|
|
@ -60,11 +60,11 @@ mindspore.nn.FTRL
|
|||
- **grads** (tuple[Tensor]) - 优化器中 `params` 的梯度,shape与优化器中的 `params` 相同。
|
||||
|
||||
|
||||
**输出:**
|
||||
**输出:**
|
||||
|
||||
tuple[Parameter],更新的参数,shape与 `params` 相同。
|
||||
|
||||
**异常:**
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - `initial_accum`、`learning_rate`、`lr_power`、`l1`、`l2` 或 `loss_scale` 不是float。
|
||||
- **TypeError** - `parameters` 的元素不是Parameter或dict。
|
||||
|
@ -74,11 +74,11 @@ mindspore.nn.FTRL
|
|||
- **ValueError** - `loss_scale` 小于等于0。
|
||||
- **ValueError** - `initial_accum`、`l1` 或 `l2` 小于0。
|
||||
|
||||
**支持平台:**
|
||||
**支持平台:**
|
||||
|
||||
``Ascend`` ``GPU`` ``CPU``
|
||||
|
||||
**样例:**
|
||||
**样例:**
|
||||
|
||||
>>> net = Net()
|
||||
>>> #1) 所有参数使用相同的学习率和权重衰减
|
||||
|
@ -100,4 +100,4 @@ mindspore.nn.FTRL
|
|||
>>> model = Model(net, loss_fn=loss, optimizer=optim)
|
||||
|
||||
|
||||
.. include::mindspore.nn.optim_target_unique_for_sparse.rst
|
||||
.. include:: mindspore.nn.optim_target_unique_for_sparse.rst
|
|
@ -7,7 +7,7 @@ mindspore.nn.FixedLossScaleUpdateCell
|
|||
|
||||
该类是 :class:`mindspore.nn.FixedLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.TrainOneStepWithLossScaleCell` 会调用该Cell。
|
||||
|
||||
**参数:**
|
||||
**参数:**
|
||||
|
||||
- **loss_scale_value** (float) - 初始梯度放大系数。
|
||||
|
||||
|
@ -24,7 +24,7 @@ mindspore.nn.FixedLossScaleUpdateCell
|
|||
|
||||
``Ascend`` ``GPU``
|
||||
|
||||
**样例:**
|
||||
**样例:**
|
||||
|
||||
>>> import numpy as np
|
||||
>>> from mindspore import Tensor, Parameter, nn, ops
|
||||
|
|
|
@ -12,7 +12,7 @@ mindspore.nn.MAE
|
|||
|
||||
这里, :math:`n` 是bach size。
|
||||
|
||||
**样例:**
|
||||
**样例:**
|
||||
|
||||
>>> import numpy as np
|
||||
>>> from mindspore import nn, Tensor
|
||||
|
@ -35,11 +35,11 @@ mindspore.nn.MAE
|
|||
计算平均绝对差(MAE)。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
||||
numpy.float64,计算结果。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
||||
- **RuntimeError** - 样本总数为0。
|
||||
|
||||
.. py:method:: update(*inputs)
|
||||
|
@ -51,5 +51,5 @@ mindspore.nn.MAE
|
|||
- **inputs** - 输入 `y_pred` 和 `y` 来计算MAE,其中 `y_pred` 和 `y` 的shape都是N-D,它们的shape相同。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
||||
- **ValueError** - `inputs` 的数量不等于2。
|
||||
|
|
|
@ -129,4 +129,4 @@ mindspore.nn.Optimizer
|
|||
|
||||
tuple[Tensor],还原后的梯度。
|
||||
|
||||
.. include:: mindspore.nn.optim_target_unique_for_sparse.rst
|
||||
.. include:: mindspore.nn.optim_target_unique_for_sparse.rst
|
|
@ -1,4 +1,4 @@
|
|||
mindspore.nn.polynomial_decay_lr
|
||||
mindspore.nn.PolynomialDecayLR
|
||||
====================================
|
||||
|
||||
.. py:class:: mindspore.nn.PolynomialDecayLR(learning_rate, end_learning_rate, decay_steps, power, update_decay_steps=False)
|
||||
|
|
|
@ -30,10 +30,10 @@ mindspore.nn.WarmUpLR
|
|||
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - ** `learning_rate` 不是float。
|
||||
- **TypeError** - ** `warmup_steps` 不是int。
|
||||
- **ValueError:** `warmup_steps` 小于1。
|
||||
- **ValueError:** `learning_rate` 小于或等于0。
|
||||
- **TypeError** - `learning_rate` 不是float。
|
||||
- **TypeError** - `warmup_steps` 不是int。
|
||||
- **ValueError** - `warmup_steps` 小于1。
|
||||
- **ValueError** - `learning_rate` 小于或等于0。
|
||||
|
||||
**支持平台:**
|
||||
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.nn.get_metric_fn
|
|||
|
||||
根据输入的 `name` 获取metric的方法。
|
||||
|
||||
**参数:**
|
||||
**参数:**
|
||||
|
||||
- **name** (str) - metric的方法名,可以通过 :class:`mindspore.nn.names` 接口获取。
|
||||
- **args** - metric函数的参数。
|
||||
|
|
|
@ -5,7 +5,6 @@ mindspore.nn.names
|
|||
|
||||
获取所有metric的名称。
|
||||
|
||||
**返回:**
|
||||
|
||||
**返回:**
|
||||
|
||||
List,所有metric的名称列表。
|
||||
|
Loading…
Reference in New Issue