modify the wrong format of files

This commit is contained in:
huanxiaoling 2022-10-08 17:22:10 +08:00
parent 0bbec5df6e
commit 57080c6d67
29 changed files with 87 additions and 87 deletions

View File

@ -5,7 +5,7 @@ mindspore.dataset.IWSLT2016Dataset
读取和解析IWSLT2016数据集的源数据集。
生成的数据集有两列 `[text, translation]` `text` 列的数据类型是string。 `translation` 列的数据类型是string。
生成的数据集有两列 `[text, translation]` `text` 列的数据类型是string。 `translation` 列的数据类型是string。
参数:
- **dataset_dir** (str) - 包含数据集文件的根目录路径。
@ -85,5 +85,5 @@ mindspore.dataset.IWSLT2016Dataset
Title = {WIT$^3$: Web Inventory of Transcribed and Translated Talks},
Year = {2012}}
.. include:: mindspore.dataset.api_list_nlp.rst
.. include:: mindspore.dataset.api_list_nlp.rst

View File

@ -5,7 +5,7 @@ mindspore.dataset.IWSLT2017Dataset
读取和解析IWSLT2017数据集的源数据集。
生成的数据集有两列 `[text, translation]` `text` 列的数据类型是string。 `translation` 列的数据类型是string。
生成的数据集有两列 `[text, translation]` `text` 列的数据类型是string。 `translation` 列的数据类型是string。
参数:
- **dataset_dir** (str) - 包含数据集文件的根目录路径。
@ -83,5 +83,5 @@ mindspore.dataset.IWSLT2017Dataset
Title = {WIT$^3$: Web Inventory of Transcribed and Translated Talks},
Year = {2012}}
.. include:: mindspore.dataset.api_list_nlp.rst
.. include:: mindspore.dataset.api_list_nlp.rst

View File

@ -3,9 +3,9 @@ mindspore.dataset.ImageFolderDataset
.. py:class:: mindspore.dataset.ImageFolderDataset(dataset_dir, num_samples=None, num_parallel_workers=None, shuffle=None, sampler=None, extensions=None, class_indexing=None, decode=False, num_shards=None, shard_id=None, cache=None, decrypt=None)
从树状结构的文件目录中读取图片构建源数据集同一个文件夹中的所有图片将被分配相同的label。
从树状结构的文件目录中读取图片构建源数据集同一个文件夹中的所有图片将被分配相同的label。
生成的数据集有两列:`[image, label]``image` 列的数据类型为uint8`label` 列的数据类型为uint32。
生成的数据集有两列:`[image, label]``image` 列的数据类型为uint8`label` 列的数据类型为uint32。
参数:
- **dataset_dir** (str) - 包含数据集文件的根目录的路径。
@ -84,5 +84,5 @@ mindspore.dataset.ImageFolderDataset
├── classN
├── ...
.. include:: mindspore.dataset.api_list_vision.rst
.. include:: mindspore.dataset.api_list_vision.rst

View File

@ -6,7 +6,7 @@ mindspore.dataset.LJSpeechDataset
读取和解析LJSpeech数据集的源文件构建数据集。
生成的数据集有两列: `[waveform, sample_rate, transcription, normalized_transcript]`
`waveform` 列的数据类型为float32 `sample_rate` 列的数据类型为int32 `transcription` 列的数据类型为string `normalized_transcript` 列的数据类型为string。
`waveform` 列的数据类型为float32`sample_rate` 列的数据类型为int32。 `transcription` 列的数据类型为string。 `normalized_transcript` 列的数据类型为string。
参数:
- **dataset_dir** (str) - 包含数据集文件的根目录路径。
@ -58,9 +58,9 @@ mindspore.dataset.LJSpeechDataset
**关于LJSPEECH数据集**
LJSPEECH是一个公共领域的语音数据集由13,100个来自7部非小说类书籍的段落短音频片段组成。
为每个剪辑片段都进行转录剪辑的长度从1秒到10秒不等总长度约为24小时。
为每个剪辑片段都进行转录剪辑的长度从1秒到10秒不等总长度约为24小时。
这些被阅读的文本于1884年至1964年间出版属于公共领域这些音频由LibriVox项目于2016-17年录制。
这些被阅读的文本于1884年至1964年间出版属于公共领域这些音频由LibriVox项目于2016-17年录制。
以下是原始的LJSPEECH数据集结构。
可以将数据集文件解压缩到以下目录结构中并由MindSpore的API读取。
@ -95,5 +95,5 @@ mindspore.dataset.LJSpeechDataset
year = 2017
}
.. include:: mindspore.dataset.api_list_audio.rst
.. include:: mindspore.dataset.api_list_audio.rst

View File

@ -59,9 +59,9 @@ mindspore.dataset.MnistDataset
**关于MNIST数据集**
MNIST手写数字数据集是NIST数据集的子集共有60,000个训练样本和10,000个测试样本。
MNIST手写数字数据集是NIST数据集的子集共有60,000个训练样本和10,000个测试样本。此数据集是NIST数据集的子集。数字已经预先进行了尺寸归一化和中心化处理。
以下为原始MNIST数据集的结构您可以将数据集文件解压得到如下的文件结构并通过MindSpore的API进行读取。
以下为原始MNIST数据集的结构您可以将数据集文件解压得到如下的文件结构并通过MindSpore的API进行读取。
.. code-block::
@ -85,5 +85,5 @@ mindspore.dataset.MnistDataset
howpublished = {http://yann.lecun.com/exdb/mnist}
}
.. include:: mindspore.dataset.api_list_vision.rst
.. include:: mindspore.dataset.api_list_vision.rst

View File

@ -5,7 +5,7 @@ mindspore.dataset.SVHNDataset
读取和解析SVHN数据集的源文件构建数据集。
生成的数据集有两列: `[image, label]``image` 列的数据类型是uint8 `label` 列的数据类型是uint32。
生成的数据集有两列: `[image, label]``image` 列的数据类型是uint8 `label` 列的数据类型是uint32。
参数:
- **dataset_dir** (str) - 包含数据集文件的根目录路径。
@ -59,7 +59,7 @@ mindspore.dataset.SVHNDataset
SVHN数据集是从谷歌街景图像中的门牌号码中获得的由10位数字组成。
以下是原始SVHN数据集结构可以将数据集文件解压缩到此目录结构中并由MindSpore的API读取。
以下是原始SVHN数据集结构可以将数据集文件解压缩到此目录结构中并由MindSpore的API读取。
.. code-block::
@ -82,5 +82,5 @@ mindspore.dataset.SVHNDataset
url={http://ufldl.stanford.edu/housenumbers}
}
.. include:: mindspore.dataset.api_list_vision.rst
.. include:: mindspore.dataset.api_list_vision.rst

View File

@ -5,7 +5,7 @@ mindspore.dataset.audio.AllpassBiquad
给音频波形施加双极点全通滤波器,其中心频率和带宽由入参指定。
全通滤波器能够改变音频频率与相位的关系,而不改变频率与幅度的关系其系统函数为:
全通滤波器能够改变音频频率与相位的关系,而不改变频率与幅度的关系其系统函数为:
.. math::
H(s) = \frac{s^2 - \frac{s}{Q} + 1}{s^2 + \frac{s}{Q} + 1}

View File

@ -5,7 +5,7 @@ mindspore.dataset.audio.BandBiquad
给音频波形施加双极点带通滤波器。
带通滤波器的频率响应在中心频率附近呈对数下降,下降的斜率由带宽决定,频带两端处输出音频的幅度将是原始幅度的一半。
带通滤波器的频率响应在中心频率附近呈对数下降。下降的斜率由带宽决定。频带两端处输出音频的幅度将是原始幅度的一半。
接口实现方式类似于 `SoX库 <http://sox.sourceforge.net/sox.html>`_

View File

@ -5,7 +5,7 @@ mindspore.dataset.audio.BassBiquad
给音频波形施加低音控制效果,即双极点低频搁架滤波器。
低频搁架滤波器能够通过所有频率,但将低于搁架的频率提升或衰减指定量其系统函数为:
低频搁架滤波器能够通过所有频率,但将低于搁架的频率提升或衰减指定量其系统函数为:
.. math::
H(s) = A\frac{s^2 + \frac{\sqrt{A}}{Q}s + A}{As^2 + \frac{\sqrt{A}}{Q}s + 1}

View File

@ -3,7 +3,8 @@ mindspore.dataset.audio.DetectPitchFrequency
.. py:class:: mindspore.dataset.audio.DetectPitchFrequency(sample_rate, frame_time=0.01, win_length=30, freq_low=85, freq_high=3400)
检测音调频率,基于归一化互相关函数和中位平滑来实现。
检测音调频率。
基于归一化互相关函数和中位平滑来实现。
参数:
- **sample_rate** (int) - 采样频率单位Hz值必须为44100或48000。

View File

@ -5,7 +5,7 @@ mindspore.dataset.audio.LowpassBiquad
给音频波形施加双极点低通滤波器。
低通滤波器允许低频信号通过,但减弱频率高于截止频率的信号其系统函数为:
低通滤波器允许低频信号通过,但减弱频率高于截止频率的信号其系统函数为:
.. math::
H(s) = \frac{1}{s^2 + \frac{s}{Q} + 1}

View File

@ -3,9 +3,7 @@ mindspore.dataset.audio.MaskAlongAxisIID
.. py:class:: mindspore.dataset.audio.MaskAlongAxisIID(mask_param, mask_value, axis)
对音频波形应用掩码。掩码的起始和长度由 `[mask_start, mask_start + mask_width)` 决定。
其中 `mask_width``uniform[0, mask_param]` 中采样, `mask_start``uniform[0, max_length - mask_width]` 中采样,
对音频波形应用掩码。掩码的起始和长度由 `[mask_start, mask_start + mask_width)` 决定,其中 `mask_width``uniform[0, mask_param]` 中采样, `mask_start``uniform[0, max_length - mask_width]` 中采样,
`max_length` 是光谱图中特定轴的列数。
参数:

View File

@ -3,7 +3,7 @@ mindspore.dataset.audio.Resample
.. py:class:: mindspore.dataset.audio.Resample(orig_freq=16000, new_freq=16000, resample_method=ResampleMethod.SINC_INTERPOLATION, lowpass_filter_width=6, rolloff=0.99, beta=None)
将音频波形从一个频率重新采样到另一个频率必要时可以指定重采样方法。
将音频波形从一个频率重新采样到另一个频率必要时可以指定重采样方法。
参数:
- **orig_freq** (float, 可选) - 音频波形的原始频率必须为正默认值16000。

View File

@ -1,7 +1,7 @@
mindspore.dataset.text.FilterWikipediaXML
=========================================
.. py:class:: mindspore.dataset.text.FilterWikipediaXML(vocab, unknown_token=None, data_type=mstype.int32)
.. py:class:: mindspore.dataset.text.FilterWikipediaXML()
将Wikipedia XML格式转储过滤为仅由小写字母a-z从A-Z转换而来和空格从不连续组成的“干净”文本。

View File

@ -194,7 +194,7 @@ mindspore.rewrite
下面提到的NodeImpl是Node的实现它不是Rewrite的接口。Rewrite建议调用Node的特定 `create` 方法来实例化Node的实例例如 `create_call_cell`而不是直接调用Node的构造函数所以不要关心NodeImpl是什么只需要看做一个句柄即可。
参数:
- **node** ( Node ) - SymbolTree中节点的具体实现类的实例。
- **node** (Node) - SymbolTree中节点的具体实现类的实例。
.. py:method:: mindspore.rewrite.Node.create_call_cell(cell: Cell, targets: [Union[ScopedValue, str]], args: [ScopedValue] = None, kwargs: {str: ScopedValue}=None, name: str = "", is_sub_net: bool = False)
:staticmethod:

View File

@ -75,7 +75,8 @@ mindspore.nn.Adam
.. include:: mindspore.nn.optim_arg_dynamic_wd.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
- **kwargs** -
- **kwargs** -
- use_lazy (bool)是否使用Lazy Adam算法。默认值False。如果为True使用lazy Adam反之使用普通Adam算法。
- use_offload (bool)是否在主机CPU上运行Adam优化算法。默认值False。如果为True使用offload方法反之使用普通Adam算法。

View File

@ -523,7 +523,7 @@
返回:
Cell类型Cell本身。
.. py:method:: shard(in_strategy, out_strategy, parameter_plan=None, device="Ascend", level=0)
.. py:method:: shard(in_strategy, out_strategy=None, parameter_plan=None, device="Ascend", level=0)
指定输入/输出Tensor的分布策略其余算子的策略推导得到。在PyNative模式下可以利用此方法指定某个Cell以图模式进行分布式执行。 in_strategy/out_strategy需要为元组类型
其中的每一个元素指定对应的输入/输出的Tensor分布策略可参考 `mindspore.ops.Primitive.shard` 的描述。也可以设置为None会默认以数据并行执行。
@ -536,7 +536,7 @@
- **out_strategy** (Union[None, tuple]) - 指定各输出的切分策略用法同in_strategy目前未使能。默认值None。
- **parameter_plan** (Union[dict, None]) - 指定各参数的切分策略传入字典时键是str类型的参数名值是1维整数tuple表示相应的切分策略
如果参数名错误或对应参数已经设置了切分策略该参数的设置会被跳过。默认值None。
- **device** (string) - 指定执行设备,可以为["CPU", "GPU", "Ascend"]中任意一个,目前未使能。默认值:"Ascend"
- **device** (string) - 指定执行设备,可以为["CPU", "GPU", "Ascend"]中任意一个,目前未使能。默认值:"Ascend"
- **level** (int) - 指定搜索切分策略的目标函数,即是最大化计算通信比、最小化内存消耗、最大化执行速度等。可以为[0, 1, 2]中任意一个默认值0。目前仅支持最大化计算通信比其余模式未使能。
返回:

View File

@ -21,10 +21,10 @@ mindspore.ops.AlltoAll
- **concat_dim** (int) - 在每个进程上,沿着 `concat_dimension` 拼接接收到的块blocks
- **group** (str) - AlltoAll的通信域。默认值"GlobalComm.WORLD_COMM_GROUP"。
输入:
输入
- **input_x** (Tensor) - shape为 :math:`(x_1, x_2, ..., x_R)`
输出:
输出
Tensor设输入的shape是 :math:`(x_1, x_2, ..., x_R)`则输出的shape为 :math:`(y_1, y_2, ..., y_R)`,其中:
:math:`y_{split\_dim} = x_{split\_dim} / split\_count`

View File

@ -5,7 +5,7 @@
根据指定的索引计算最大值,并返回索引和值。
在给定轴上计算输入Tensor的最大值并且返回最大值和索引。
在给定轴上计算输入Tensor的最大值并且返回最大值和索引。
.. note::
在auto_parallel和semi_auto_parallel模式下不能使用第一个输出索引。

View File

@ -3,7 +3,7 @@ mindspore.ops.Einsum
.. py:class:: mindspore.ops.Einsum(equation)
此算子使用爱因斯坦求和约定Einsum进行Tensor计算支持对角线、约和、转置、矩阵乘、乘积、内积运算等。
此算子使用爱因斯坦求和约定Einsum进行Tensor计算支持对角线、约和、转置、矩阵乘、乘积、内积运算等。
输入必须是Tensor的tuple。当输入只有一个Tensor时可以输入(Tensor, )支持数据类型float16、float32、float64。

View File

@ -6,9 +6,9 @@ mindspore.ops.MultitypeFuncGraph
MultitypeFuncGraph是一个用于生成重载函数的类使用不同类型作为输入。使用 `name` 去初始化一个MultitypeFuncGraph并且使用带有
类型的 `register` 注册器进行装饰注册类型。这样使该函数可以使用不同的类型作为输入调用,一般与 `HyperMap``Map` 结合使用。
参数:
参数
- **name** (str) - 操作名。
- **read_value** (bool, 可选) - 如果注册函数不需要对输入的值进行更改,即所有输入都为按值传递,则将 `read_value` 设置为True。默认为: False。
- **read_value** (bool, 可选) - 如果注册函数不需要对输入的值进行更改,即所有输入都为按值传递,则将 `read_value` 设置为True。默认为False。
异常:
异常
- **ValueError** - 找不到给定参数类型所匹配的函数。

View File

@ -20,8 +20,8 @@ mindspore.ops.NeighborExchange
- **recv_type** (type) - 指定 `recv_rank_ids` 接收的数据类型。
- **group** (str) - 要处理的通信范围。默认值:"GlobalComm.WORLD_COMM_GROUP"。
输入:
输入
- **input_x** (tuple[Tensor]) - shape与参数send_shapes相同。
输出:
输出
Tuple tensorshape与参数recv_shapes相同。

View File

@ -22,34 +22,6 @@ mindspore.train.OnRequestExit
- **ValueError** - `directory` 不是字符串。
- **ValueError** - `sig` 不是int值或者是signal.SIGKILL。
.. py:method:: on_train_begin(run_context)
在训练开始时,注册用户传入退出信号的处理程序。
参数:
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`
.. py:method:: on_train_step_end(run_context)
在训练step结束时如果接收到退出信号`run_context` 的 `_stop_requested` 属性置为True。在本轮训练结束后退出训练。
参数:
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`
.. py:method:: on_train_epoch_end(run_context)
在训练epoch结束时如果接收到退出信号`run_context` 的 `_stop_requested` 属性置为True。在本轮训练结束后退出训练。
参数:
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`
.. py:method:: on_train_end(run_context)
在训练结束时如果接收到退出信号根据用户配置保存checkpoint和mindir。
参数:
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`
.. py:method:: on_eval_begin(run_context)
在推理开始时,注册用户传入退出信号的处理程序。
@ -57,6 +29,13 @@ mindspore.train.OnRequestExit
参数:
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`
.. py:method:: on_eval_end(run_context)
在推理结束时如果接收到退出信号根据用户配置保存checkpoint和mindir。
参数:
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`
.. py:method:: on_eval_step_end(run_context)
在推理step结束时如果接收到退出信号`run_context` 的 `_stop_requested` 属性置为True。在本轮推理结束后退出推理。
@ -64,9 +43,31 @@ mindspore.train.OnRequestExit
参数:
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`
.. py:method:: on_eval_end(run_context)
.. py:method:: on_train_begin(run_context)
推理结束时如果接收到退出信号根据用户配置保存checkpoint和mindir
训练开始时,注册用户传入退出信号的处理程序
参数:
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`
.. py:method:: on_train_end(run_context)
在训练结束时如果接收到退出信号根据用户配置保存checkpoint和mindir。
参数:
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`
.. py:method:: on_train_epoch_end(run_context)
在训练epoch结束时如果接收到退出信号`run_context` 的 `_stop_requested` 属性置为True。在本轮训练结束后退出训练。
参数:
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`
.. py:method:: on_train_step_end(run_context)
在训练step结束时如果接收到退出信号`run_context` 的 `_stop_requested` 属性置为True。在本轮训练结束后退出训练。
参数:
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`

View File

@ -166,7 +166,7 @@ class NormType(str, Enum):
class ResampleMethod(str, Enum):
"""
Resample method
Resample method.
Possible enumeration values are: ResampleMethod.SINC_INTERPOLATION, ResampleMethod.KAISER_WINDOW.

View File

@ -4396,9 +4396,7 @@ class SVHNDataset(GeneratorDataset):
About SVHN dataset:
SVHN dataset consists of 10 digit classes.
SVHN is obtained from house numbers in Google Street View images.
73257 digits for training, 26032 digits for testing, and 531131 additional extra training data.
SVHN dataset consists of 10 digit classes and is obtained from house numbers in Google Street View images.
Here is the original SVHN dataset structure.
You can unzip the dataset files into this directory structure and read by MindSpore's API.
@ -4645,7 +4643,7 @@ class VOCDataset(MappableDataset, VisionBaseDataset):
>>> # In VOC dataset, if task='Segmentation', each dictionary has keys "image" and "target"
>>> # In VOC dataset, if task='Detection', each dictionary has keys "image" and "annotation"
About VOC dataset.
About VOC dataset:
The PASCAL Visual Object Classes (VOC) challenge is a benchmark in visual
object category recognition and detection, providing the vision and machine

View File

@ -42,10 +42,10 @@ def serialize(dataset, json_filepath=""):
json_filepath (str): The filepath where a serialized JSON file will be generated (default="").
Returns:
Dict, The dictionary contains the serialized dataset graph.
Dict, the dictionary contains the serialized dataset graph.
Raises:
OSError: Cannot open a file
OSError: Cannot open a file.
Examples:
>>> dataset = ds.MnistDataset(mnist_dataset_dir, num_samples=100)

View File

@ -4218,7 +4218,8 @@ class ScatterMin(_ScatterOpDynamic):
Inputs of `input_x` and `updates` comply with the implicit type conversion rules to make the data types consistent.
If they have different data types, the lower priority data type will be converted to
the relatively highest priority data type.
the relatively highest priority data type. A RuntimeError will be reported
when `updates` does not support conversion to the data type required by `input_x`.
Args:
use_locking (bool): Whether to protect the assignment by a lock. Default: False.

View File

@ -877,7 +877,7 @@ class NeighborExchangeV2(Primitive):
Supported Platforms:
``Ascend``
Example:
Examples:
>>> # This example should be run with 2 devices. Refer to the tutorial > Distributed Training on mindspore.cn
>>> import os
>>> import mindspore as ms

View File

@ -2349,8 +2349,8 @@ class ReduceStd(Primitive):
class Einsum(Primitive):
"""
This operator uses equation to represent a tuple of tensors operations,
you can use this operator to perform diagonal/reducesum/transpose/matmul/mul/inner product operations, etc.
This operator uses equation to represent a tuple of tensors operations.
You can use this operator to perform diagonal/reducesum/transpose/matmul/mul/inner product operations, etc.
The inputs must be a tuple of tensors.
When the inputs are only one tensor, you can input (tensor, )