From 57080c6d6797f0b38a20e2910b6c7ba32dc7dd80 Mon Sep 17 00:00:00 2001 From: huanxiaoling <3174348550@qq.com> Date: Sat, 8 Oct 2022 17:22:10 +0800 Subject: [PATCH] modify the wrong format of files --- .../mindspore.dataset.IWSLT2016Dataset.rst | 6 +- .../mindspore.dataset.IWSLT2017Dataset.rst | 6 +- .../mindspore.dataset.ImageFolderDataset.rst | 8 +-- .../mindspore.dataset.LJSpeechDataset.rst | 10 +-- .../mindspore.dataset.MnistDataset.rst | 8 +-- .../dataset/mindspore.dataset.SVHNDataset.rst | 8 +-- .../mindspore.dataset.audio.AllpassBiquad.rst | 2 +- .../mindspore.dataset.audio.BandBiquad.rst | 2 +- .../mindspore.dataset.audio.BassBiquad.rst | 2 +- ...ore.dataset.audio.DetectPitchFrequency.rst | 3 +- .../mindspore.dataset.audio.LowpassBiquad.rst | 2 +- ...ndspore.dataset.audio.MaskAlongAxisIID.rst | 4 +- .../mindspore.dataset.audio.Resample.rst | 2 +- ...dspore.dataset.text.FilterWikipediaXML.rst | 2 +- docs/api/api_python/mindspore.rewrite.rst | 2 +- docs/api/api_python/nn/mindspore.nn.Adam.rst | 3 +- docs/api/api_python/nn/mindspore.nn.Cell.rst | 4 +- .../api_python/ops/mindspore.ops.AlltoAll.rst | 4 +- .../ops/mindspore.ops.ArgMaxWithValue.rst | 2 +- .../api_python/ops/mindspore.ops.Einsum.rst | 2 +- .../ops/mindspore.ops.MultitypeFuncGraph.rst | 6 +- .../ops/mindspore.ops.NeighborExchange.rst | 4 +- .../train/mindspore.train.OnRequestExit.rst | 61 ++++++++++--------- .../python/mindspore/dataset/audio/utils.py | 2 +- .../dataset/engine/datasets_vision.py | 6 +- .../dataset/engine/serializer_deserializer.py | 4 +- .../mindspore/ops/operations/array_ops.py | 3 +- .../mindspore/ops/operations/comm_ops.py | 2 +- .../mindspore/ops/operations/math_ops.py | 4 +- 29 files changed, 87 insertions(+), 87 deletions(-) diff --git a/docs/api/api_python/dataset/mindspore.dataset.IWSLT2016Dataset.rst b/docs/api/api_python/dataset/mindspore.dataset.IWSLT2016Dataset.rst index 025e0319edf..7544a407a69 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.IWSLT2016Dataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.IWSLT2016Dataset.rst @@ -5,7 +5,7 @@ mindspore.dataset.IWSLT2016Dataset 读取和解析IWSLT2016数据集的源数据集。 - 生成的数据集有两列 `[text, translation]` , `text` 列的数据类型是string。 `translation` 列的数据类型是string。 + 生成的数据集有两列 `[text, translation]` 。 `text` 列的数据类型是string。 `translation` 列的数据类型是string。 参数: - **dataset_dir** (str) - 包含数据集文件的根目录路径。 @@ -85,5 +85,5 @@ mindspore.dataset.IWSLT2016Dataset Title = {WIT$^3$: Web Inventory of Transcribed and Translated Talks}, Year = {2012}} - -.. include:: mindspore.dataset.api_list_nlp.rst + +.. include:: mindspore.dataset.api_list_nlp.rst diff --git a/docs/api/api_python/dataset/mindspore.dataset.IWSLT2017Dataset.rst b/docs/api/api_python/dataset/mindspore.dataset.IWSLT2017Dataset.rst index 943cf82d3d7..d8f9ad8ebfe 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.IWSLT2017Dataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.IWSLT2017Dataset.rst @@ -5,7 +5,7 @@ mindspore.dataset.IWSLT2017Dataset 读取和解析IWSLT2017数据集的源数据集。 - 生成的数据集有两列 `[text, translation]` , `text` 列的数据类型是string。 `translation` 列的数据类型是string。 + 生成的数据集有两列 `[text, translation]` 。 `text` 列的数据类型是string。 `translation` 列的数据类型是string。 参数: - **dataset_dir** (str) - 包含数据集文件的根目录路径。 @@ -83,5 +83,5 @@ mindspore.dataset.IWSLT2017Dataset Title = {WIT$^3$: Web Inventory of Transcribed and Translated Talks}, Year = {2012}} - -.. include:: mindspore.dataset.api_list_nlp.rst + +.. include:: mindspore.dataset.api_list_nlp.rst diff --git a/docs/api/api_python/dataset/mindspore.dataset.ImageFolderDataset.rst b/docs/api/api_python/dataset/mindspore.dataset.ImageFolderDataset.rst index 9cd2cb7cfc4..80b35ce888c 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.ImageFolderDataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.ImageFolderDataset.rst @@ -3,9 +3,9 @@ mindspore.dataset.ImageFolderDataset .. py:class:: mindspore.dataset.ImageFolderDataset(dataset_dir, num_samples=None, num_parallel_workers=None, shuffle=None, sampler=None, extensions=None, class_indexing=None, decode=False, num_shards=None, shard_id=None, cache=None, decrypt=None) - 从树状结构的文件目录中读取图片构建源数据集,同一个文件夹中的所有图片将被分配相同的label。 + 从树状结构的文件目录中读取图片构建源数据集。同一个文件夹中的所有图片将被分配相同的label。 - 生成的数据集有两列:`[image, label]`。`image` 列的数据类型为uint8,`label` 列的数据类型为uint32。 + 生成的数据集有两列:`[image, label]`。`image` 列的数据类型为uint8。 `label` 列的数据类型为uint32。 参数: - **dataset_dir** (str) - 包含数据集文件的根目录的路径。 @@ -84,5 +84,5 @@ mindspore.dataset.ImageFolderDataset ├── classN ├── ... - -.. include:: mindspore.dataset.api_list_vision.rst + +.. include:: mindspore.dataset.api_list_vision.rst diff --git a/docs/api/api_python/dataset/mindspore.dataset.LJSpeechDataset.rst b/docs/api/api_python/dataset/mindspore.dataset.LJSpeechDataset.rst index c4ba0597200..3e9581ee313 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.LJSpeechDataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.LJSpeechDataset.rst @@ -6,7 +6,7 @@ mindspore.dataset.LJSpeechDataset 读取和解析LJSpeech数据集的源文件构建数据集。 生成的数据集有两列: `[waveform, sample_rate, transcription, normalized_transcript]`。 - `waveform` 列的数据类型为float32, `sample_rate` 列的数据类型为int32, `transcription` 列的数据类型为string, `normalized_transcript` 列的数据类型为string。 + `waveform` 列的数据类型为float32。 `sample_rate` 列的数据类型为int32。 `transcription` 列的数据类型为string。 `normalized_transcript` 列的数据类型为string。 参数: - **dataset_dir** (str) - 包含数据集文件的根目录路径。 @@ -58,9 +58,9 @@ mindspore.dataset.LJSpeechDataset **关于LJSPEECH数据集:** LJSPEECH是一个公共领域的语音数据集,由13,100个来自7部非小说类书籍的段落短音频片段组成。 - 为每个剪辑片段都进行转录,剪辑的长度从1秒到10秒不等,总长度约为24小时。 + 为每个剪辑片段都进行转录。剪辑的长度从1秒到10秒不等,总长度约为24小时。 - 这些被阅读的文本于1884年至1964年间出版,属于公共领域,这些音频由LibriVox项目于2016-17年录制。 + 这些被阅读的文本于1884年至1964年间出版,属于公共领域。这些音频由LibriVox项目于2016-17年录制。 以下是原始的LJSPEECH数据集结构。 可以将数据集文件解压缩到以下目录结构中,并由MindSpore的API读取。 @@ -95,5 +95,5 @@ mindspore.dataset.LJSpeechDataset year = 2017 } - -.. include:: mindspore.dataset.api_list_audio.rst + +.. include:: mindspore.dataset.api_list_audio.rst diff --git a/docs/api/api_python/dataset/mindspore.dataset.MnistDataset.rst b/docs/api/api_python/dataset/mindspore.dataset.MnistDataset.rst index 800254ef42a..7801dda7478 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.MnistDataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.MnistDataset.rst @@ -59,9 +59,9 @@ mindspore.dataset.MnistDataset **关于MNIST数据集:** - MNIST手写数字数据集是NIST数据集的子集,共有60,000个训练样本和10,000个测试样本。 + MNIST手写数字数据集是NIST数据集的子集,共有60,000个训练样本和10,000个测试样本。此数据集是NIST数据集的子集。数字已经预先进行了尺寸归一化和中心化处理。 - 以下为原始MNIST数据集的结构,您可以将数据集文件解压得到如下的文件结构,并通过MindSpore的API进行读取。 + 以下为原始MNIST数据集的结构。您可以将数据集文件解压得到如下的文件结构,并通过MindSpore的API进行读取。 .. code-block:: @@ -85,5 +85,5 @@ mindspore.dataset.MnistDataset howpublished = {http://yann.lecun.com/exdb/mnist} } - -.. include:: mindspore.dataset.api_list_vision.rst + +.. include:: mindspore.dataset.api_list_vision.rst diff --git a/docs/api/api_python/dataset/mindspore.dataset.SVHNDataset.rst b/docs/api/api_python/dataset/mindspore.dataset.SVHNDataset.rst index 0f385f03f29..1e368fcbc0d 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.SVHNDataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.SVHNDataset.rst @@ -5,7 +5,7 @@ mindspore.dataset.SVHNDataset 读取和解析SVHN数据集的源文件构建数据集。 - 生成的数据集有两列: `[image, label]` 。 `image` 列的数据类型是uint8, `label` 列的数据类型是uint32。 + 生成的数据集有两列: `[image, label]` 。 `image` 列的数据类型是uint8。 `label` 列的数据类型是uint32。 参数: - **dataset_dir** (str) - 包含数据集文件的根目录路径。 @@ -59,7 +59,7 @@ mindspore.dataset.SVHNDataset SVHN数据集是从谷歌街景图像中的门牌号码中获得的,由10位数字组成。 - 以下是原始SVHN数据集结构,可以将数据集文件解压缩到此目录结构中,并由MindSpore的API读取。 + 以下是原始SVHN数据集结构。可以将数据集文件解压缩到此目录结构中,并由MindSpore的API读取。 .. code-block:: @@ -82,5 +82,5 @@ mindspore.dataset.SVHNDataset url={http://ufldl.stanford.edu/housenumbers} } - -.. include:: mindspore.dataset.api_list_vision.rst + +.. include:: mindspore.dataset.api_list_vision.rst diff --git a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.AllpassBiquad.rst b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.AllpassBiquad.rst index bc99bcdd2f4..e82b6e834db 100644 --- a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.AllpassBiquad.rst +++ b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.AllpassBiquad.rst @@ -5,7 +5,7 @@ mindspore.dataset.audio.AllpassBiquad 给音频波形施加双极点全通滤波器,其中心频率和带宽由入参指定。 - 全通滤波器能够改变音频频率与相位的关系,而不改变频率与幅度的关系,其系统函数为: + 全通滤波器能够改变音频频率与相位的关系,而不改变频率与幅度的关系。其系统函数为: .. math:: H(s) = \frac{s^2 - \frac{s}{Q} + 1}{s^2 + \frac{s}{Q} + 1} diff --git a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.BandBiquad.rst b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.BandBiquad.rst index 6c72864febd..0bb3872e3bc 100644 --- a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.BandBiquad.rst +++ b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.BandBiquad.rst @@ -5,7 +5,7 @@ mindspore.dataset.audio.BandBiquad 给音频波形施加双极点带通滤波器。 - 带通滤波器的频率响应在中心频率附近呈对数下降,下降的斜率由带宽决定,频带两端处输出音频的幅度将是原始幅度的一半。 + 带通滤波器的频率响应在中心频率附近呈对数下降。下降的斜率由带宽决定。频带两端处输出音频的幅度将是原始幅度的一半。 接口实现方式类似于 `SoX库 `_ 。 diff --git a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.BassBiquad.rst b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.BassBiquad.rst index 6143e56f63e..4e399066b3d 100644 --- a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.BassBiquad.rst +++ b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.BassBiquad.rst @@ -5,7 +5,7 @@ mindspore.dataset.audio.BassBiquad 给音频波形施加低音控制效果,即双极点低频搁架滤波器。 - 低频搁架滤波器能够通过所有频率,但将低于搁架的频率提升或衰减指定量,其系统函数为: + 低频搁架滤波器能够通过所有频率,但将低于搁架的频率提升或衰减指定量。其系统函数为: .. math:: H(s) = A\frac{s^2 + \frac{\sqrt{A}}{Q}s + A}{As^2 + \frac{\sqrt{A}}{Q}s + 1} diff --git a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.DetectPitchFrequency.rst b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.DetectPitchFrequency.rst index 1eca3033e0c..cf9a9d6ca5b 100644 --- a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.DetectPitchFrequency.rst +++ b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.DetectPitchFrequency.rst @@ -3,7 +3,8 @@ mindspore.dataset.audio.DetectPitchFrequency .. py:class:: mindspore.dataset.audio.DetectPitchFrequency(sample_rate, frame_time=0.01, win_length=30, freq_low=85, freq_high=3400) - 检测音调频率,基于归一化互相关函数和中位平滑来实现。 + 检测音调频率。 + 基于归一化互相关函数和中位平滑来实现。 参数: - **sample_rate** (int) - 采样频率(单位:Hz),值必须为44100或48000。 diff --git a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.LowpassBiquad.rst b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.LowpassBiquad.rst index 6b80be8646d..676ccec593a 100644 --- a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.LowpassBiquad.rst +++ b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.LowpassBiquad.rst @@ -5,7 +5,7 @@ mindspore.dataset.audio.LowpassBiquad 给音频波形施加双极点低通滤波器。 - 低通滤波器允许低频信号通过,但减弱频率高于截止频率的信号,其系统函数为: + 低通滤波器允许低频信号通过,但减弱频率高于截止频率的信号。其系统函数为: .. math:: H(s) = \frac{1}{s^2 + \frac{s}{Q} + 1} diff --git a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.MaskAlongAxisIID.rst b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.MaskAlongAxisIID.rst index a97a681d96a..1d353175f19 100644 --- a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.MaskAlongAxisIID.rst +++ b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.MaskAlongAxisIID.rst @@ -3,9 +3,7 @@ mindspore.dataset.audio.MaskAlongAxisIID .. py:class:: mindspore.dataset.audio.MaskAlongAxisIID(mask_param, mask_value, axis) - 对音频波形应用掩码。掩码的起始和长度由 `[mask_start, mask_start + mask_width)` 决定。 - - 其中 `mask_width` 从 `uniform[0, mask_param]` 中采样, `mask_start` 从 `uniform[0, max_length - mask_width]` 中采样, + 对音频波形应用掩码。掩码的起始和长度由 `[mask_start, mask_start + mask_width)` 决定,其中 `mask_width` 从 `uniform[0, mask_param]` 中采样, `mask_start` 从 `uniform[0, max_length - mask_width]` 中采样, `max_length` 是光谱图中特定轴的列数。 参数: diff --git a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.Resample.rst b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.Resample.rst index 7424e4e7394..65201821f4d 100644 --- a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.Resample.rst +++ b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.Resample.rst @@ -3,7 +3,7 @@ mindspore.dataset.audio.Resample .. py:class:: mindspore.dataset.audio.Resample(orig_freq=16000, new_freq=16000, resample_method=ResampleMethod.SINC_INTERPOLATION, lowpass_filter_width=6, rolloff=0.99, beta=None) - 将音频波形从一个频率重新采样到另一个频率,必要时可以指定重采样方法。 + 将音频波形从一个频率重新采样到另一个频率。必要时可以指定重采样方法。 参数: - **orig_freq** (float, 可选) - 音频波形的原始频率,必须为正,默认值:16000。 diff --git a/docs/api/api_python/dataset_text/mindspore.dataset.text.FilterWikipediaXML.rst b/docs/api/api_python/dataset_text/mindspore.dataset.text.FilterWikipediaXML.rst index e11cfe53072..119a4ed9891 100644 --- a/docs/api/api_python/dataset_text/mindspore.dataset.text.FilterWikipediaXML.rst +++ b/docs/api/api_python/dataset_text/mindspore.dataset.text.FilterWikipediaXML.rst @@ -1,7 +1,7 @@ mindspore.dataset.text.FilterWikipediaXML ========================================= -.. py:class:: mindspore.dataset.text.FilterWikipediaXML(vocab, unknown_token=None, data_type=mstype.int32) +.. py:class:: mindspore.dataset.text.FilterWikipediaXML() 将Wikipedia XML格式转储过滤为仅由小写字母(a-z,从A-Z转换而来)和空格(从不连续)组成的“干净”文本。 diff --git a/docs/api/api_python/mindspore.rewrite.rst b/docs/api/api_python/mindspore.rewrite.rst index b15a5dc11d7..fae6e718bba 100644 --- a/docs/api/api_python/mindspore.rewrite.rst +++ b/docs/api/api_python/mindspore.rewrite.rst @@ -194,7 +194,7 @@ mindspore.rewrite 下面提到的NodeImpl是Node的实现,它不是Rewrite的接口。Rewrite建议调用Node的特定 `create` 方法来实例化Node的实例,例如 `create_call_cell`,而不是直接调用Node的构造函数,所以不要关心NodeImpl是什么,只需要看做一个句柄即可。 参数: - - **node** ( Node ) - SymbolTree中节点的具体实现类的实例。 + - **node** (Node) - SymbolTree中节点的具体实现类的实例。 .. py:method:: mindspore.rewrite.Node.create_call_cell(cell: Cell, targets: [Union[ScopedValue, str]], args: [ScopedValue] = None, kwargs: {str: ScopedValue}=None, name: str = "", is_sub_net: bool = False) :staticmethod: diff --git a/docs/api/api_python/nn/mindspore.nn.Adam.rst b/docs/api/api_python/nn/mindspore.nn.Adam.rst index 461dd859988..59bb0d20c90 100644 --- a/docs/api/api_python/nn/mindspore.nn.Adam.rst +++ b/docs/api/api_python/nn/mindspore.nn.Adam.rst @@ -75,7 +75,8 @@ mindspore.nn.Adam .. include:: mindspore.nn.optim_arg_dynamic_wd.rst .. include:: mindspore.nn.optim_arg_loss_scale.rst - - **kwargs** - + + - **kwargs** - - use_lazy (bool):是否使用Lazy Adam算法。默认值:False。如果为True,使用lazy Adam,反之使用普通Adam算法。 - use_offload (bool):是否在主机CPU上运行Adam优化算法。默认值:False。如果为True,使用offload方法,反之使用普通Adam算法。 diff --git a/docs/api/api_python/nn/mindspore.nn.Cell.rst b/docs/api/api_python/nn/mindspore.nn.Cell.rst index 2ee8c19c4d8..f2ea7956425 100644 --- a/docs/api/api_python/nn/mindspore.nn.Cell.rst +++ b/docs/api/api_python/nn/mindspore.nn.Cell.rst @@ -523,7 +523,7 @@ 返回: Cell类型,Cell本身。 - .. py:method:: shard(in_strategy, out_strategy, parameter_plan=None, device="Ascend", level=0) + .. py:method:: shard(in_strategy, out_strategy=None, parameter_plan=None, device="Ascend", level=0) 指定输入/输出Tensor的分布策略,其余算子的策略推导得到。在PyNative模式下,可以利用此方法指定某个Cell以图模式进行分布式执行。 in_strategy/out_strategy需要为元组类型, 其中的每一个元素指定对应的输入/输出的Tensor分布策略,可参考: `mindspore.ops.Primitive.shard` 的描述。也可以设置为None,会默认以数据并行执行。 @@ -536,7 +536,7 @@ - **out_strategy** (Union[None, tuple]) - 指定各输出的切分策略,用法同in_strategy,目前未使能。默认值:None。 - **parameter_plan** (Union[dict, None]) - 指定各参数的切分策略,传入字典时,键是str类型的参数名,值是1维整数tuple表示相应的切分策略, 如果参数名错误或对应参数已经设置了切分策略,该参数的设置会被跳过。默认值:None。 - - **device** (string) - 指定执行设备,可以为["CPU", "GPU", "Ascend"]中任意一个,目前未使能。默认值:"Ascend" + - **device** (string) - 指定执行设备,可以为["CPU", "GPU", "Ascend"]中任意一个,目前未使能。默认值:"Ascend"。 - **level** (int) - 指定搜索切分策略的目标函数,即是最大化计算通信比、最小化内存消耗、最大化执行速度等。可以为[0, 1, 2]中任意一个,默认值:0。目前仅支持最大化计算通信比,其余模式未使能。 返回: diff --git a/docs/api/api_python/ops/mindspore.ops.AlltoAll.rst b/docs/api/api_python/ops/mindspore.ops.AlltoAll.rst index 401b6b84ea2..aa5dde0e012 100644 --- a/docs/api/api_python/ops/mindspore.ops.AlltoAll.rst +++ b/docs/api/api_python/ops/mindspore.ops.AlltoAll.rst @@ -21,10 +21,10 @@ mindspore.ops.AlltoAll - **concat_dim** (int) - 在每个进程上,沿着 `concat_dimension` 拼接接收到的块(blocks)。 - **group** (str) - AlltoAll的通信域。默认值:"GlobalComm.WORLD_COMM_GROUP"。 - 输入: + 输入: - **input_x** (Tensor) - shape为 :math:`(x_1, x_2, ..., x_R)`。 - 输出: + 输出: Tensor,设输入的shape是 :math:`(x_1, x_2, ..., x_R)`,则输出的shape为 :math:`(y_1, y_2, ..., y_R)`,其中: :math:`y_{split\_dim} = x_{split\_dim} / split\_count` diff --git a/docs/api/api_python/ops/mindspore.ops.ArgMaxWithValue.rst b/docs/api/api_python/ops/mindspore.ops.ArgMaxWithValue.rst index 3c6467ec4ee..010b55d24a8 100644 --- a/docs/api/api_python/ops/mindspore.ops.ArgMaxWithValue.rst +++ b/docs/api/api_python/ops/mindspore.ops.ArgMaxWithValue.rst @@ -5,7 +5,7 @@ 根据指定的索引计算最大值,并返回索引和值。 - 在给定轴上计算输入Tensor的最大值,并且返回最大值和索引。 + 在给定轴上计算输入Tensor的最大值。并且返回最大值和索引。 .. note:: 在auto_parallel和semi_auto_parallel模式下,不能使用第一个输出索引。 diff --git a/docs/api/api_python/ops/mindspore.ops.Einsum.rst b/docs/api/api_python/ops/mindspore.ops.Einsum.rst index 087dc129703..d0dac9a8d4f 100644 --- a/docs/api/api_python/ops/mindspore.ops.Einsum.rst +++ b/docs/api/api_python/ops/mindspore.ops.Einsum.rst @@ -3,7 +3,7 @@ mindspore.ops.Einsum .. py:class:: mindspore.ops.Einsum(equation) - 此算子使用爱因斯坦求和约定(Einsum)进行Tensor计算,支持对角线、约和、转置、矩阵乘、乘积、内积运算等。 + 此算子使用爱因斯坦求和约定(Einsum)进行Tensor计算。支持对角线、约和、转置、矩阵乘、乘积、内积运算等。 输入必须是Tensor的tuple。当输入只有一个Tensor时,可以输入(Tensor, ),支持数据类型float16、float32、float64。 diff --git a/docs/api/api_python/ops/mindspore.ops.MultitypeFuncGraph.rst b/docs/api/api_python/ops/mindspore.ops.MultitypeFuncGraph.rst index a717c408984..59d39f56e70 100644 --- a/docs/api/api_python/ops/mindspore.ops.MultitypeFuncGraph.rst +++ b/docs/api/api_python/ops/mindspore.ops.MultitypeFuncGraph.rst @@ -6,9 +6,9 @@ mindspore.ops.MultitypeFuncGraph MultitypeFuncGraph是一个用于生成重载函数的类,使用不同类型作为输入。使用 `name` 去初始化一个MultitypeFuncGraph,并且使用带有 类型的 `register` 注册器进行装饰注册类型。这样使该函数可以使用不同的类型作为输入调用,一般与 `HyperMap` 与 `Map` 结合使用。 - 参数: + 参数: - **name** (str) - 操作名。 - - **read_value** (bool, 可选) - 如果注册函数不需要对输入的值进行更改,即所有输入都为按值传递,则将 `read_value` 设置为True。默认为: False。 + - **read_value** (bool, 可选) - 如果注册函数不需要对输入的值进行更改,即所有输入都为按值传递,则将 `read_value` 设置为True。默认为:False。 - 异常: + 异常: - **ValueError** - 找不到给定参数类型所匹配的函数。 diff --git a/docs/api/api_python/ops/mindspore.ops.NeighborExchange.rst b/docs/api/api_python/ops/mindspore.ops.NeighborExchange.rst index d7df1df3a30..29b6200ee0d 100644 --- a/docs/api/api_python/ops/mindspore.ops.NeighborExchange.rst +++ b/docs/api/api_python/ops/mindspore.ops.NeighborExchange.rst @@ -20,8 +20,8 @@ mindspore.ops.NeighborExchange - **recv_type** (type) - 指定 `recv_rank_ids` 接收的数据类型。 - **group** (str) - 要处理的通信范围。默认值:"GlobalComm.WORLD_COMM_GROUP"。 - 输入: + 输入: - **input_x** (tuple[Tensor]) - shape与参数send_shapes相同。 - 输出: + 输出: Tuple tensor,shape与参数recv_shapes相同。 diff --git a/docs/api/api_python/train/mindspore.train.OnRequestExit.rst b/docs/api/api_python/train/mindspore.train.OnRequestExit.rst index 9decbccca03..134688e3f02 100644 --- a/docs/api/api_python/train/mindspore.train.OnRequestExit.rst +++ b/docs/api/api_python/train/mindspore.train.OnRequestExit.rst @@ -22,34 +22,6 @@ mindspore.train.OnRequestExit - **ValueError** - `directory` 不是字符串。 - **ValueError** - `sig` 不是int值,或者是signal.SIGKILL。 - .. py:method:: on_train_begin(run_context) - - 在训练开始时,注册用户传入退出信号的处理程序。 - - 参数: - - **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。 - - .. py:method:: on_train_step_end(run_context) - - 在训练step结束时,如果接收到退出信号,将 `run_context` 的 `_stop_requested` 属性置为True。在本轮训练结束后,退出训练。 - - 参数: - - **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。 - - .. py:method:: on_train_epoch_end(run_context) - - 在训练epoch结束时,如果接收到退出信号,将 `run_context` 的 `_stop_requested` 属性置为True。在本轮训练结束后,退出训练。 - - 参数: - - **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。 - - .. py:method:: on_train_end(run_context) - - 在训练结束时,如果接收到退出信号,根据用户配置,保存checkpoint和mindir。 - - 参数: - - **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。 - .. py:method:: on_eval_begin(run_context) 在推理开始时,注册用户传入退出信号的处理程序。 @@ -57,6 +29,13 @@ mindspore.train.OnRequestExit 参数: - **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。 + .. py:method:: on_eval_end(run_context) + + 在推理结束时,如果接收到退出信号,根据用户配置,保存checkpoint和mindir。 + + 参数: + - **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。 + .. py:method:: on_eval_step_end(run_context) 在推理step结束时,如果接收到退出信号,将 `run_context` 的 `_stop_requested` 属性置为True。在本轮推理结束后,退出推理。 @@ -64,9 +43,31 @@ mindspore.train.OnRequestExit 参数: - **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。 - .. py:method:: on_eval_end(run_context) + .. py:method:: on_train_begin(run_context) - 在推理结束时,如果接收到退出信号,根据用户配置,保存checkpoint和mindir。 + 在训练开始时,注册用户传入退出信号的处理程序。 参数: - **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。 + + .. py:method:: on_train_end(run_context) + + 在训练结束时,如果接收到退出信号,根据用户配置,保存checkpoint和mindir。 + + 参数: + - **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。 + + .. py:method:: on_train_epoch_end(run_context) + + 在训练epoch结束时,如果接收到退出信号,将 `run_context` 的 `_stop_requested` 属性置为True。在本轮训练结束后,退出训练。 + + 参数: + - **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。 + + .. py:method:: on_train_step_end(run_context) + + 在训练step结束时,如果接收到退出信号,将 `run_context` 的 `_stop_requested` 属性置为True。在本轮训练结束后,退出训练。 + + 参数: + - **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。 + diff --git a/mindspore/python/mindspore/dataset/audio/utils.py b/mindspore/python/mindspore/dataset/audio/utils.py index 3f4d4f6bfcf..4d4aca47378 100644 --- a/mindspore/python/mindspore/dataset/audio/utils.py +++ b/mindspore/python/mindspore/dataset/audio/utils.py @@ -166,7 +166,7 @@ class NormType(str, Enum): class ResampleMethod(str, Enum): """ - Resample method + Resample method. Possible enumeration values are: ResampleMethod.SINC_INTERPOLATION, ResampleMethod.KAISER_WINDOW. diff --git a/mindspore/python/mindspore/dataset/engine/datasets_vision.py b/mindspore/python/mindspore/dataset/engine/datasets_vision.py index e357de357ae..0f4165fcfa3 100644 --- a/mindspore/python/mindspore/dataset/engine/datasets_vision.py +++ b/mindspore/python/mindspore/dataset/engine/datasets_vision.py @@ -4396,9 +4396,7 @@ class SVHNDataset(GeneratorDataset): About SVHN dataset: - SVHN dataset consists of 10 digit classes. - SVHN is obtained from house numbers in Google Street View images. - 73257 digits for training, 26032 digits for testing, and 531131 additional extra training data. + SVHN dataset consists of 10 digit classes and is obtained from house numbers in Google Street View images. Here is the original SVHN dataset structure. You can unzip the dataset files into this directory structure and read by MindSpore's API. @@ -4645,7 +4643,7 @@ class VOCDataset(MappableDataset, VisionBaseDataset): >>> # In VOC dataset, if task='Segmentation', each dictionary has keys "image" and "target" >>> # In VOC dataset, if task='Detection', each dictionary has keys "image" and "annotation" - About VOC dataset. + About VOC dataset: The PASCAL Visual Object Classes (VOC) challenge is a benchmark in visual object category recognition and detection, providing the vision and machine diff --git a/mindspore/python/mindspore/dataset/engine/serializer_deserializer.py b/mindspore/python/mindspore/dataset/engine/serializer_deserializer.py index 8629a7dff78..88fc5048cfb 100644 --- a/mindspore/python/mindspore/dataset/engine/serializer_deserializer.py +++ b/mindspore/python/mindspore/dataset/engine/serializer_deserializer.py @@ -42,10 +42,10 @@ def serialize(dataset, json_filepath=""): json_filepath (str): The filepath where a serialized JSON file will be generated (default=""). Returns: - Dict, The dictionary contains the serialized dataset graph. + Dict, the dictionary contains the serialized dataset graph. Raises: - OSError: Cannot open a file + OSError: Cannot open a file. Examples: >>> dataset = ds.MnistDataset(mnist_dataset_dir, num_samples=100) diff --git a/mindspore/python/mindspore/ops/operations/array_ops.py b/mindspore/python/mindspore/ops/operations/array_ops.py index 3519b6ca837..4f5b9335a7e 100755 --- a/mindspore/python/mindspore/ops/operations/array_ops.py +++ b/mindspore/python/mindspore/ops/operations/array_ops.py @@ -4218,7 +4218,8 @@ class ScatterMin(_ScatterOpDynamic): Inputs of `input_x` and `updates` comply with the implicit type conversion rules to make the data types consistent. If they have different data types, the lower priority data type will be converted to - the relatively highest priority data type. + the relatively highest priority data type. A RuntimeError will be reported + when `updates` does not support conversion to the data type required by `input_x`. Args: use_locking (bool): Whether to protect the assignment by a lock. Default: False. diff --git a/mindspore/python/mindspore/ops/operations/comm_ops.py b/mindspore/python/mindspore/ops/operations/comm_ops.py index 2e979812919..a8f7b800bb0 100644 --- a/mindspore/python/mindspore/ops/operations/comm_ops.py +++ b/mindspore/python/mindspore/ops/operations/comm_ops.py @@ -877,7 +877,7 @@ class NeighborExchangeV2(Primitive): Supported Platforms: ``Ascend`` - Example: + Examples: >>> # This example should be run with 2 devices. Refer to the tutorial > Distributed Training on mindspore.cn >>> import os >>> import mindspore as ms diff --git a/mindspore/python/mindspore/ops/operations/math_ops.py b/mindspore/python/mindspore/ops/operations/math_ops.py index 09a033671f9..33dbd9fc8df 100644 --- a/mindspore/python/mindspore/ops/operations/math_ops.py +++ b/mindspore/python/mindspore/ops/operations/math_ops.py @@ -2349,8 +2349,8 @@ class ReduceStd(Primitive): class Einsum(Primitive): """ - This operator uses equation to represent a tuple of tensors operations, - you can use this operator to perform diagonal/reducesum/transpose/matmul/mul/inner product operations, etc. + This operator uses equation to represent a tuple of tensors operations. + You can use this operator to perform diagonal/reducesum/transpose/matmul/mul/inner product operations, etc. The inputs must be a tuple of tensors. When the inputs are only one tensor, you can input (tensor, )