forked from mindspore-Ecosystem/mindspore
!42021 correct the errors in rst files in 1.9
Merge pull request !42021 from 宦晓玲/code_docs_1.90914
This commit is contained in:
commit
42eaadc50a
|
@ -29,9 +29,15 @@ mindspore.amp.DynamicLossScaler
|
|||
参数:
|
||||
- **inputs** (Union(Tensor, tuple(Tensor))) - 损失值或梯度。
|
||||
|
||||
返回:
|
||||
Union(Tensor, tuple(Tensor)),缩放的值。
|
||||
|
||||
.. py:method:: unscale(inputs)
|
||||
|
||||
对inputs进行unscale,`inputs /= scale_value`。
|
||||
|
||||
参数:
|
||||
- **inputs** (Union(Tensor, tuple(Tensor))) - 损失值或梯度。
|
||||
|
||||
返回:
|
||||
Union(Tensor, tuple(Tensor)),未缩放的值。
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.amp.LossScaleManager
|
|||
|
||||
使用混合精度时,用于管理损失缩放系数(loss scale)的抽象类。
|
||||
|
||||
派生类需要实现该类的所有方法。 `get_loss_scale` 用于获取当前的梯度放大系数。 `update_loss_scale` 用于更新梯度放大系数,该方法将在训练过程中被调用。 `get_update_cell` 用于获取更新梯度放大系数的 `Cell` 实例,该实例将在训练过程中被调用。当前多使用 `get_update_cell` 方式。
|
||||
派生类需要实现该类的所有方法。 `get_loss_scale` 用于获取当前的梯度放大系数。 `update_loss_scale` 用于更新梯度放大系数,该方法将在训练过程中被调用。 `get_update_cell` 用于获取更新梯度放大系数的 :class:`mindspore.nn.Cell` 实例,该实例将在训练过程中被调用。当前多使用 `get_update_cell` 方式。
|
||||
|
||||
例如::class:`mindspore.amp.FixedLossScaleManager` 和 :class:`mindspore.amp.DynamicLossScaleManager` 。
|
||||
|
||||
|
|
|
@ -25,9 +25,15 @@ mindspore.amp.StaticLossScaler
|
|||
参数:
|
||||
- **inputs** (Union(Tensor, tuple(Tensor))) - 损失值或梯度。
|
||||
|
||||
返回:
|
||||
Union(Tensor, tuple(Tensor)),缩放的值。
|
||||
|
||||
.. py:method:: unscale(inputs)
|
||||
|
||||
对inputs进行unscale,`inputs /= scale_value`。
|
||||
|
||||
参数:
|
||||
- **inputs** (Union(Tensor, tuple(Tensor))) - 损失值或梯度。
|
||||
|
||||
返回:
|
||||
Union(Tensor, tuple(Tensor)),未缩放的值。
|
||||
|
|
|
@ -6,7 +6,7 @@ mindspore.dataset.CityscapesDataset
|
|||
读取和解析Cityscapes数据集的源文件构建数据集。
|
||||
|
||||
生成的数据集有两列 `[image, task]` 。
|
||||
`image` 列的数据类型为uint8。`task` 列的数据类型根据参数 `task` 的值而定,当 参数 `task` 取值为'polygon',列的数据类型为string,其他取值下,列的数据类型为uint8。
|
||||
`image` 列的数据类型为uint8。`task` 列的数据类型根据参数 `task` 的值而定,当参数 `task` 取值为'polygon',列的数据类型为string,其他取值下,列的数据类型为uint8。
|
||||
|
||||
参数:
|
||||
- **dataset_dir** (str) - 包含数据集文件的根目录路径。
|
||||
|
|
|
@ -72,6 +72,8 @@ mindspore.dataset.DIV2KDataset
|
|||
|
||||
您可以解压缩原始DIV2K数据集文件到如下目录结构,并通过MindSpore的API进行读取。
|
||||
|
||||
以训练数据集作为例子。
|
||||
|
||||
.. code-block::
|
||||
|
||||
.
|
||||
|
|
|
@ -18,7 +18,7 @@ mindspore.dataset.Flowers102Dataset
|
|||
- **num_parallel_workers** (int, 可选) - 指定读取数据的工作线程数。默认值:None,使用mindspore.dataset.config中配置的线程数。
|
||||
- **shuffle** (bool, 可选) - 是否混洗数据集。默认值:None,下表中会展示不同参数配置的预期行为。
|
||||
- **decode** (bool, 可选) - 是否对读取的图片进行解码操作,默认值:False,不解码。
|
||||
- **sampler** (Sampler, 可选) - 指定从数据集中选取样本的采样器,默认值:None,下表中会展示不同配置的预期行为。
|
||||
- **sampler** (Union[Sampler, Iterable], 可选) - 指定从数据集中选取样本的采样器,默认值:None,下表中会展示不同配置的预期行为。
|
||||
- **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数,默认值:None。指定此参数后, `num_samples` 表示每个分片的最大样本数。
|
||||
- **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号,默认值:None。只有当指定了 `num_shards` 时才能指定此参数。
|
||||
|
||||
|
|
|
@ -14,7 +14,7 @@ mindspore.dataset.IMDBDataset
|
|||
对于Polarity数据集,'train'将读取360万个训练样本,'test'将读取40万个测试样本,'all'将读取所有400万个样本。
|
||||
对于Full数据集,'train'将读取300万个训练样本,'test'将读取65万个测试样本,'all'将读取所有365万个样本。默认值:None,读取所有样本。
|
||||
- **num_parallel_workers** (int, 可选) - 指定读取数据的工作线程数。默认值:None,使用mindspore.dataset.config中配置的线程数。
|
||||
- **shuffle** (Union[bool, Shuffle], 可选) - 每个epoch中数据混洗的模式,支持传入bool类型与枚举类型进行指定,默认值:mindspore.dataset.Shuffle.GLOBAL。
|
||||
- **shuffle** (bool, 可选) - 每个epoch中数据混洗的模式,支持传入bool类型与枚举类型进行指定,默认值:mindspore.dataset.Shuffle.GLOBAL。
|
||||
如果 `shuffle` 为False,则不混洗,如果 `shuffle` 为True,等同于将 `shuffle` 设置为mindspore.dataset.Shuffle.GLOBAL。
|
||||
通过传入枚举变量设置数据混洗的模式:
|
||||
|
||||
|
|
|
@ -114,6 +114,8 @@ mindspore.dataset.PhotoTourDataset
|
|||
|
||||
.. include:: mindspore.dataset.Dataset.rst
|
||||
|
||||
.. include:: mindspore.dataset.Dataset.add_sampler.rst
|
||||
|
||||
.. include:: mindspore.dataset.Dataset.d.rst
|
||||
|
||||
.. include:: mindspore.dataset.Dataset.e.rst
|
||||
|
@ -124,4 +126,6 @@ mindspore.dataset.PhotoTourDataset
|
|||
|
||||
.. include:: mindspore.dataset.Dataset.g.rst
|
||||
|
||||
.. include:: mindspore.dataset.Dataset.use_sampler.rst
|
||||
|
||||
.. include:: mindspore.dataset.Dataset.zip.rst
|
||||
|
|
|
@ -106,6 +106,8 @@ mindspore.dataset.Places365Dataset
|
|||
|
||||
.. include:: mindspore.dataset.Dataset.rst
|
||||
|
||||
.. include:: mindspore.dataset.Dataset.add_sampler.rst
|
||||
|
||||
.. include:: mindspore.dataset.Dataset.d.rst
|
||||
|
||||
.. include:: mindspore.dataset.Dataset.e.rst
|
||||
|
|
|
@ -59,6 +59,8 @@ mindspore.dataset.SBUDataset
|
|||
|
||||
SBU数据集是一个带字幕的大型照片集,它包含一百万张带有视觉相关标注的图像。
|
||||
|
||||
你需要使用官方的download.m手动下载图片,将'urls{i}(24, end)'替换为'urls{i}(24:1:end)',并将目录保持如下。
|
||||
|
||||
.. code-block::
|
||||
|
||||
.
|
||||
|
|
|
@ -6,7 +6,3 @@
|
|||
- **data_parallel** (int) - 表示数据并行度。根据这个数值,VocabEmbedding层的的输入数据将会被切分成原来的1/data_parallel。默认值:1。
|
||||
- **model_parallel** (int) - 表示模型并行度。根据这个数值,VocabEmbedding层的的权重将会在第0维度被切分成原来的1/model_parallel。默认值:1。
|
||||
- **vocab_emb_dp** (bool) - 表示将权重进行模型切分或数据并行。如果是True,嵌入表查找的操作将会以数据并行的方式进行,此时model_parallel的值将会被忽略。如果是False,嵌入表将会在第0维度进行切分成model_parallel份数。默认值:True。
|
||||
|
||||
.. py:method:: dp_mp_config()
|
||||
|
||||
获取包含有data_parallel和model_parallel属性的DPMPlConfig类。
|
||||
|
|
Loading…
Reference in New Issue