From 16c78f1999104ba1f48c1245b2980b52deb6ad9c Mon Sep 17 00:00:00 2001 From: zhangyi Date: Sun, 5 Dec 2021 16:06:57 +0800 Subject: [PATCH] fix error format for chinese python API. --- .../dataset/mindspore.dataset.Dataset.rst | 6 ++- .../mindspore.dataset.SequentialSampler.rst | 2 +- .../mindspore.common.initializer.rst | 40 +++++++++---------- docs/api/api_python/mindspore.context.rst | 21 +++++----- .../mindspore/mindspore.LossScaleManager.rst | 6 +-- ...indspore.model.rst => mindspore.Model.rst} | 0 ...indspore.nn.DynamicLossScaleUpdateCell.rst | 4 +- docs/api/api_python/nn/mindspore.nn.FTRL.rst | 10 ++--- .../mindspore.nn.FixedLossScaleUpdateCell.rst | 4 +- docs/api/api_python/nn/mindspore.nn.MAE.rst | 8 ++-- .../api_python/nn/mindspore.nn.Optimizer.rst | 2 +- .../nn/mindspore.nn.PolynomialDecayLR.rst | 2 +- .../api_python/nn/mindspore.nn.WarmUpLR.rst | 8 ++-- .../nn/mindspore.nn.get_metric_fn.rst | 2 +- docs/api/api_python/nn/mindspore.nn.names.rst | 5 +-- 15 files changed, 59 insertions(+), 61 deletions(-) rename docs/api/api_python/mindspore/{mindspore.model.rst => mindspore.Model.rst} (100%) diff --git a/docs/api/api_python/dataset/mindspore.dataset.Dataset.rst b/docs/api/api_python/dataset/mindspore.dataset.Dataset.rst index 546013fb227..c541c298182 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.Dataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.Dataset.rst @@ -155,7 +155,8 @@ `special_first` 设置为默认值,则将 `special_tokens` 添加到词汇表最前面。 **返回:** - 从数据集对象中构建出的词汇表对象。 + + 从数据集对象中构建出的词汇表对象。 **样例:** @@ -324,7 +325,8 @@ - **func** (function) - 输入'ndarray'并返回一个'Dataset'对象的函数。 **返回:** - 执行给定操作的数据集对象。 + + 执行给定操作的数据集对象。 **样例:** diff --git a/docs/api/api_python/dataset/mindspore.dataset.SequentialSampler.rst b/docs/api/api_python/dataset/mindspore.dataset.SequentialSampler.rst index 6460fdfaa1a..6bd208dbaf9 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.SequentialSampler.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.SequentialSampler.rst @@ -10,7 +10,7 @@ mindspore.dataset.SequentialSampler - **start_index** (int, optional): 开始采样的索引。(默认值为None,从第一个ID开始) - **num_samples** (int, optional): 要采样的元素数量。(默认值为None,采样所有元素) - *样例:** + **样例:** >>> # 创建SequentialSampler >>> sampler = ds.SequentialSampler() diff --git a/docs/api/api_python/mindspore.common.initializer.rst b/docs/api/api_python/mindspore.common.initializer.rst index 7c7ea2c3e29..98de4b936ba 100644 --- a/docs/api/api_python/mindspore.common.initializer.rst +++ b/docs/api/api_python/mindspore.common.initializer.rst @@ -11,37 +11,37 @@ mindspore.common.initializer - **kwargs** (dict) – `Initializer` 的关键字参数。 - .. py:method:: mindspore.common.initializer.initializer(init, shape=None, dtype=mstype.float32) +.. py:function:: mindspore.common.initializer.initializer(init, shape=None, dtype=mstype.float32) - 创建并初始化一个Tensor。 + 创建并初始化一个Tensor。 - **参数:** + **参数:** - - **init** (Union[Tensor, str, Initializer, numbers.Number]) – 初始化方式。 + - **init** (Union[Tensor, str, Initializer, numbers.Number]) – 初始化方式。 - - **str** - `init` 是继承自 `Initializer` 的类的别名,实际使用时会调用相应的类。`init` 的值可以是"normal"、"ones"或"zeros"等。 - - **Initializer** - `init` 是继承自 `Initializer` ,用于初始化Tensor的类。 - - **numbers.Number** - 调用常量来初始化张量。 + - **str** - `init` 是继承自 `Initializer` 的类的别名,实际使用时会调用相应的类。`init` 的值可以是"normal"、"ones"或"zeros"等。 + - **Initializer** - `init` 是继承自 `Initializer` ,用于初始化Tensor的类。 + - **numbers.Number** - 调用常量来初始化张量。 - - **shape** (Union[[tuple, list, int]) - 被初始化的Tensor的shape,默认值为None。 - - **dtype** (mindspore.dtype) – 被初始化的Tensor的数据类型,默认值为 `mindspore.float32` 。 + - **shape** (Union[[tuple, list, int]) - 被初始化的Tensor的shape,默认值为None。 + - **dtype** (mindspore.dtype) – 被初始化的Tensor的数据类型,默认值为 `mindspore.float32` 。 - **返回:** + **返回:** - Tensor,返回一个张量对象。 + Tensor,返回一个张量对象。 - **异常:** + **异常:** - - **TypeError** - 参数 `init` 的类型不正确。 - - **ValueError** - 通过 `init` 传入的Tensor的shape和作为参数传入的shape不一致。 + - **TypeError** - 参数 `init` 的类型不正确。 + - **ValueError** - 通过 `init` 传入的Tensor的shape和作为参数传入的shape不一致。 - **样例:** + **样例:** - >>> import mindspore - >>> from mindspore.common.initializer import initializer, One - >>> tensor = initializer('ones', [1, 2, 3], mindspore.float32) - >>> tensor = initializer(One(), [1, 2, 3], mindspore.float32) - >>> tensor = initializer(0, [1, 2, 3], mindspore.float32) + >>> import mindspore + >>> from mindspore.common.initializer import initializer, One + >>> tensor = initializer('ones', [1, 2, 3], mindspore.float32) + >>> tensor = initializer(One(), [1, 2, 3], mindspore.float32) + >>> tensor = initializer(0, [1, 2, 3], mindspore.float32) .. py:class:: mindspore.common.initializer.TruncatedNormal(sigma=0.01) diff --git a/docs/api/api_python/mindspore.context.rst b/docs/api/api_python/mindspore.context.rst index 43d55112d5c..7ed19028c5e 100644 --- a/docs/api/api_python/mindspore.context.rst +++ b/docs/api/api_python/mindspore.context.rst @@ -1,11 +1,9 @@ mindspore.context =================== -.. py:class:: mindspore.context +MindSpore上下文,用于配置当前执行环境,包括执行模式、执行后端和其他特性开关。 - MindSpore上下文,用于配置当前执行环境,包括执行模式、执行后端和其他特性开关。 - -.. py:function:: set_context(**kwargs) +.. py:function:: mindspore.context.set_context(**kwargs) 设置运行环境的上下文。 @@ -167,7 +165,7 @@ >>> context.set_context(load_compile_cache=True) >>> context.set_context(pynative_synchronize=True) -.. py:function:: get_context(attr_key) +.. py:function:: mindspore.context.get_context(attr_key) 根据输入key获取上下文中的属性值。如果某些属性没有设置,则会自动获取这些属性。 @@ -188,7 +186,7 @@ >>> context.get_context("device_target") >>> context.get_context("device_id") -.. py:function:: set_auto_parallel_context(**kwargs) +.. py:function:: mindspore.context.set_auto_parallel_context(**kwargs) 配置自动并行,仅在Ascend和GPU上有效。 @@ -261,7 +259,7 @@ >>> context.set_auto_parallel_context(all_reduce_fusion_config=[8, 160]) >>> context.set_auto_parallel_context(pipeline_stages=2) -.. py:function:: get_auto_parallel_context(attr_key) +.. py:function:: mindspore.context.get_auto_parallel_context(attr_key) 根据key获取自动并行的配置。 @@ -277,7 +275,7 @@ **ValueError**:输入key不在自动并行的配置列表中。 -.. py:function:: reset_auto_parallel_context() +.. py:function:: mindspore.context.reset_auto_parallel_context() 重置自动并行的配置为默认值。 @@ -308,7 +306,7 @@ MODE_LIST:表示所有支持的并行模式的列表。 -.. py:function:: set_ps_context(**kwargs) +.. py:function:: mindspore.context.set_ps_context(**kwargs) 设置参数服务器训练模式的上下文。 @@ -343,7 +341,7 @@ >>> context.set_ps_context(enable_ps=True, enable_ssl=True, client_password='123456', server_password='123456') -.. py:function:: get_ps_context(attr_key) +.. py:function:: mindspore.context.get_ps_context(attr_key) 根据key获取参数服务器训练模式上下文中的属性值。 @@ -370,8 +368,7 @@ >>> context.get_ps_context(enable_ps) - -.. py:function:: reset_ps_context() +.. py:function:: mindspore.context.reset_ps_context() 将参数服务器训练模式上下文中的属性重置为默认值。各字段的含义及其默认值见'set_ps_context'接口。 diff --git a/docs/api/api_python/mindspore/mindspore.LossScaleManager.rst b/docs/api/api_python/mindspore/mindspore.LossScaleManager.rst index f4d5d521d28..b982b6025cd 100644 --- a/docs/api/api_python/mindspore/mindspore.LossScaleManager.rst +++ b/docs/api/api_python/mindspore/mindspore.LossScaleManager.rst @@ -3,11 +3,11 @@ mindspore.LossScaleManager .. py:class:: mindspore.LossScaleManager - ϾݶȷŴϵloss scaleijࡣ + ϾݶȷŴϵloss scaleijࡣ - Ҫʵָз `get_loss_scale` ڻȡǰݶȷŴϵ `update_loss_scale` ڸݶȷŴϵ÷ѵбá `get_update_cell` ڻȡݶȷŴϵ `Cell` ʵʵѵбáǰʹ `get_update_cell` ʽ + Ҫʵָз `get_loss_scale` ڻȡǰݶȷŴϵ `update_loss_scale` ڸݶȷŴϵ÷ѵбá `get_update_cell` ڻȡݶȷŴϵ `Cell` ʵʵѵбáǰʹ `get_update_cell` ʽ - 磺:class:`mindspore.FixedLossScaleManager` :class:`mindspore.DynamicLossScaleManager` + 磺:class:`mindspore.FixedLossScaleManager` :class:`mindspore.DynamicLossScaleManager` .. py:method:: get_loss_scale() diff --git a/docs/api/api_python/mindspore/mindspore.model.rst b/docs/api/api_python/mindspore/mindspore.Model.rst similarity index 100% rename from docs/api/api_python/mindspore/mindspore.model.rst rename to docs/api/api_python/mindspore/mindspore.Model.rst diff --git a/docs/api/api_python/nn/mindspore.nn.DynamicLossScaleUpdateCell.rst b/docs/api/api_python/nn/mindspore.nn.DynamicLossScaleUpdateCell.rst index 7da46c49de8..b481637aff3 100644 --- a/docs/api/api_python/nn/mindspore.nn.DynamicLossScaleUpdateCell.rst +++ b/docs/api/api_python/nn/mindspore.nn.DynamicLossScaleUpdateCell.rst @@ -9,7 +9,7 @@ mindspore.nn.DynamicLossScaleUpdateCell 该类是 :class:`mindspore.nn.DynamicLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.TrainOneStepWithLossScaleCell` 会调用该Cell来更新梯度放大系数。 - **参数:** + **参数:** - **loss_scale_value** (float) - 初始的梯度放大系数。 - **scale_factor** (int) - 增减系数。 @@ -28,7 +28,7 @@ mindspore.nn.DynamicLossScaleUpdateCell ``Ascend`` ``GPU`` - **样例:** + **样例:** >>> import numpy as np >>> from mindspore import Tensor, Parameter, nn diff --git a/docs/api/api_python/nn/mindspore.nn.FTRL.rst b/docs/api/api_python/nn/mindspore.nn.FTRL.rst index 725a310a795..097cbc0cc93 100644 --- a/docs/api/api_python/nn/mindspore.nn.FTRL.rst +++ b/docs/api/api_python/nn/mindspore.nn.FTRL.rst @@ -60,11 +60,11 @@ mindspore.nn.FTRL - **grads** (tuple[Tensor]) - 优化器中 `params` 的梯度,shape与优化器中的 `params` 相同。 - **输出:** + **输出:** tuple[Parameter],更新的参数,shape与 `params` 相同。 - **异常:** + **异常:** - **TypeError** - `initial_accum`、`learning_rate`、`lr_power`、`l1`、`l2` 或 `loss_scale` 不是float。 - **TypeError** - `parameters` 的元素不是Parameter或dict。 @@ -74,11 +74,11 @@ mindspore.nn.FTRL - **ValueError** - `loss_scale` 小于等于0。 - **ValueError** - `initial_accum`、`l1` 或 `l2` 小于0。 - **支持平台:** + **支持平台:** ``Ascend`` ``GPU`` ``CPU`` - **样例:** + **样例:** >>> net = Net() >>> #1) 所有参数使用相同的学习率和权重衰减 @@ -100,4 +100,4 @@ mindspore.nn.FTRL >>> model = Model(net, loss_fn=loss, optimizer=optim) -.. include::mindspore.nn.optim_target_unique_for_sparse.rst \ No newline at end of file +.. include:: mindspore.nn.optim_target_unique_for_sparse.rst \ No newline at end of file diff --git a/docs/api/api_python/nn/mindspore.nn.FixedLossScaleUpdateCell.rst b/docs/api/api_python/nn/mindspore.nn.FixedLossScaleUpdateCell.rst index 54d067830bc..3fa082b60bc 100644 --- a/docs/api/api_python/nn/mindspore.nn.FixedLossScaleUpdateCell.rst +++ b/docs/api/api_python/nn/mindspore.nn.FixedLossScaleUpdateCell.rst @@ -7,7 +7,7 @@ mindspore.nn.FixedLossScaleUpdateCell 该类是 :class:`mindspore.nn.FixedLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.TrainOneStepWithLossScaleCell` 会调用该Cell。 - **参数:** + **参数:** - **loss_scale_value** (float) - 初始梯度放大系数。 @@ -24,7 +24,7 @@ mindspore.nn.FixedLossScaleUpdateCell ``Ascend`` ``GPU`` - **样例:** + **样例:** >>> import numpy as np >>> from mindspore import Tensor, Parameter, nn, ops diff --git a/docs/api/api_python/nn/mindspore.nn.MAE.rst b/docs/api/api_python/nn/mindspore.nn.MAE.rst index 055d8001126..9352206880c 100644 --- a/docs/api/api_python/nn/mindspore.nn.MAE.rst +++ b/docs/api/api_python/nn/mindspore.nn.MAE.rst @@ -12,7 +12,7 @@ mindspore.nn.MAE 这里, :math:`n` 是bach size。 - **样例:** + **样例:** >>> import numpy as np >>> from mindspore import nn, Tensor @@ -35,11 +35,11 @@ mindspore.nn.MAE 计算平均绝对差(MAE)。 **返回:** - + numpy.float64,计算结果。 **异常:** - + - **RuntimeError** - 样本总数为0。 .. py:method:: update(*inputs) @@ -51,5 +51,5 @@ mindspore.nn.MAE - **inputs** - 输入 `y_pred` 和 `y` 来计算MAE,其中 `y_pred` 和 `y` 的shape都是N-D,它们的shape相同。 **异常:** - + - **ValueError** - `inputs` 的数量不等于2。 diff --git a/docs/api/api_python/nn/mindspore.nn.Optimizer.rst b/docs/api/api_python/nn/mindspore.nn.Optimizer.rst index 1e80db96995..53213e5e30b 100644 --- a/docs/api/api_python/nn/mindspore.nn.Optimizer.rst +++ b/docs/api/api_python/nn/mindspore.nn.Optimizer.rst @@ -129,4 +129,4 @@ mindspore.nn.Optimizer tuple[Tensor],还原后的梯度。 - .. include:: mindspore.nn.optim_target_unique_for_sparse.rst \ No newline at end of file +.. include:: mindspore.nn.optim_target_unique_for_sparse.rst \ No newline at end of file diff --git a/docs/api/api_python/nn/mindspore.nn.PolynomialDecayLR.rst b/docs/api/api_python/nn/mindspore.nn.PolynomialDecayLR.rst index 3a0c66fee1e..81535f56a91 100644 --- a/docs/api/api_python/nn/mindspore.nn.PolynomialDecayLR.rst +++ b/docs/api/api_python/nn/mindspore.nn.PolynomialDecayLR.rst @@ -1,4 +1,4 @@ -mindspore.nn.polynomial_decay_lr +mindspore.nn.PolynomialDecayLR ==================================== .. py:class:: mindspore.nn.PolynomialDecayLR(learning_rate, end_learning_rate, decay_steps, power, update_decay_steps=False) diff --git a/docs/api/api_python/nn/mindspore.nn.WarmUpLR.rst b/docs/api/api_python/nn/mindspore.nn.WarmUpLR.rst index 4183c6522b8..8ee7d9b4215 100644 --- a/docs/api/api_python/nn/mindspore.nn.WarmUpLR.rst +++ b/docs/api/api_python/nn/mindspore.nn.WarmUpLR.rst @@ -30,10 +30,10 @@ mindspore.nn.WarmUpLR **异常:** - - **TypeError** - ** `learning_rate` 不是float。 - - **TypeError** - ** `warmup_steps` 不是int。 - - **ValueError:** `warmup_steps` 小于1。 - - **ValueError:** `learning_rate` 小于或等于0。 + - **TypeError** - `learning_rate` 不是float。 + - **TypeError** - `warmup_steps` 不是int。 + - **ValueError** - `warmup_steps` 小于1。 + - **ValueError** - `learning_rate` 小于或等于0。 **支持平台:** diff --git a/docs/api/api_python/nn/mindspore.nn.get_metric_fn.rst b/docs/api/api_python/nn/mindspore.nn.get_metric_fn.rst index dd0f60691b2..4f061b2cc47 100644 --- a/docs/api/api_python/nn/mindspore.nn.get_metric_fn.rst +++ b/docs/api/api_python/nn/mindspore.nn.get_metric_fn.rst @@ -5,7 +5,7 @@ mindspore.nn.get_metric_fn 根据输入的 `name` 获取metric的方法。 - **参数:** + **参数:** - **name** (str) - metric的方法名,可以通过 :class:`mindspore.nn.names` 接口获取。 - **args** - metric函数的参数。 diff --git a/docs/api/api_python/nn/mindspore.nn.names.rst b/docs/api/api_python/nn/mindspore.nn.names.rst index eb97cb3823a..7a43b0ef927 100644 --- a/docs/api/api_python/nn/mindspore.nn.names.rst +++ b/docs/api/api_python/nn/mindspore.nn.names.rst @@ -5,7 +5,6 @@ mindspore.nn.names 获取所有metric的名称。 - **返回:** - + **返回:** + List,所有metric的名称列表。 - \ No newline at end of file