forked from mindspore-Ecosystem/mindspore
modify the wrong format of files
This commit is contained in:
parent
0bbec5df6e
commit
57080c6d67
|
@ -5,7 +5,7 @@ mindspore.dataset.IWSLT2016Dataset
|
|||
|
||||
读取和解析IWSLT2016数据集的源数据集。
|
||||
|
||||
生成的数据集有两列 `[text, translation]` , `text` 列的数据类型是string。 `translation` 列的数据类型是string。
|
||||
生成的数据集有两列 `[text, translation]` 。 `text` 列的数据类型是string。 `translation` 列的数据类型是string。
|
||||
|
||||
参数:
|
||||
- **dataset_dir** (str) - 包含数据集文件的根目录路径。
|
||||
|
@ -85,5 +85,5 @@ mindspore.dataset.IWSLT2016Dataset
|
|||
Title = {WIT$^3$: Web Inventory of Transcribed and Translated Talks},
|
||||
Year = {2012}}
|
||||
|
||||
|
||||
.. include:: mindspore.dataset.api_list_nlp.rst
|
||||
|
||||
.. include:: mindspore.dataset.api_list_nlp.rst
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.dataset.IWSLT2017Dataset
|
|||
|
||||
读取和解析IWSLT2017数据集的源数据集。
|
||||
|
||||
生成的数据集有两列 `[text, translation]` , `text` 列的数据类型是string。 `translation` 列的数据类型是string。
|
||||
生成的数据集有两列 `[text, translation]` 。 `text` 列的数据类型是string。 `translation` 列的数据类型是string。
|
||||
|
||||
参数:
|
||||
- **dataset_dir** (str) - 包含数据集文件的根目录路径。
|
||||
|
@ -83,5 +83,5 @@ mindspore.dataset.IWSLT2017Dataset
|
|||
Title = {WIT$^3$: Web Inventory of Transcribed and Translated Talks},
|
||||
Year = {2012}}
|
||||
|
||||
|
||||
.. include:: mindspore.dataset.api_list_nlp.rst
|
||||
|
||||
.. include:: mindspore.dataset.api_list_nlp.rst
|
||||
|
|
|
@ -3,9 +3,9 @@ mindspore.dataset.ImageFolderDataset
|
|||
|
||||
.. py:class:: mindspore.dataset.ImageFolderDataset(dataset_dir, num_samples=None, num_parallel_workers=None, shuffle=None, sampler=None, extensions=None, class_indexing=None, decode=False, num_shards=None, shard_id=None, cache=None, decrypt=None)
|
||||
|
||||
从树状结构的文件目录中读取图片构建源数据集,同一个文件夹中的所有图片将被分配相同的label。
|
||||
从树状结构的文件目录中读取图片构建源数据集。同一个文件夹中的所有图片将被分配相同的label。
|
||||
|
||||
生成的数据集有两列:`[image, label]`。`image` 列的数据类型为uint8,`label` 列的数据类型为uint32。
|
||||
生成的数据集有两列:`[image, label]`。`image` 列的数据类型为uint8。 `label` 列的数据类型为uint32。
|
||||
|
||||
参数:
|
||||
- **dataset_dir** (str) - 包含数据集文件的根目录的路径。
|
||||
|
@ -84,5 +84,5 @@ mindspore.dataset.ImageFolderDataset
|
|||
├── classN
|
||||
├── ...
|
||||
|
||||
|
||||
.. include:: mindspore.dataset.api_list_vision.rst
|
||||
|
||||
.. include:: mindspore.dataset.api_list_vision.rst
|
||||
|
|
|
@ -6,7 +6,7 @@ mindspore.dataset.LJSpeechDataset
|
|||
读取和解析LJSpeech数据集的源文件构建数据集。
|
||||
|
||||
生成的数据集有两列: `[waveform, sample_rate, transcription, normalized_transcript]`。
|
||||
`waveform` 列的数据类型为float32, `sample_rate` 列的数据类型为int32, `transcription` 列的数据类型为string, `normalized_transcript` 列的数据类型为string。
|
||||
`waveform` 列的数据类型为float32。 `sample_rate` 列的数据类型为int32。 `transcription` 列的数据类型为string。 `normalized_transcript` 列的数据类型为string。
|
||||
|
||||
参数:
|
||||
- **dataset_dir** (str) - 包含数据集文件的根目录路径。
|
||||
|
@ -58,9 +58,9 @@ mindspore.dataset.LJSpeechDataset
|
|||
**关于LJSPEECH数据集:**
|
||||
|
||||
LJSPEECH是一个公共领域的语音数据集,由13,100个来自7部非小说类书籍的段落短音频片段组成。
|
||||
为每个剪辑片段都进行转录,剪辑的长度从1秒到10秒不等,总长度约为24小时。
|
||||
为每个剪辑片段都进行转录。剪辑的长度从1秒到10秒不等,总长度约为24小时。
|
||||
|
||||
这些被阅读的文本于1884年至1964年间出版,属于公共领域,这些音频由LibriVox项目于2016-17年录制。
|
||||
这些被阅读的文本于1884年至1964年间出版,属于公共领域。这些音频由LibriVox项目于2016-17年录制。
|
||||
|
||||
以下是原始的LJSPEECH数据集结构。
|
||||
可以将数据集文件解压缩到以下目录结构中,并由MindSpore的API读取。
|
||||
|
@ -95,5 +95,5 @@ mindspore.dataset.LJSpeechDataset
|
|||
year = 2017
|
||||
}
|
||||
|
||||
|
||||
.. include:: mindspore.dataset.api_list_audio.rst
|
||||
|
||||
.. include:: mindspore.dataset.api_list_audio.rst
|
||||
|
|
|
@ -59,9 +59,9 @@ mindspore.dataset.MnistDataset
|
|||
|
||||
**关于MNIST数据集:**
|
||||
|
||||
MNIST手写数字数据集是NIST数据集的子集,共有60,000个训练样本和10,000个测试样本。
|
||||
MNIST手写数字数据集是NIST数据集的子集,共有60,000个训练样本和10,000个测试样本。此数据集是NIST数据集的子集。数字已经预先进行了尺寸归一化和中心化处理。
|
||||
|
||||
以下为原始MNIST数据集的结构,您可以将数据集文件解压得到如下的文件结构,并通过MindSpore的API进行读取。
|
||||
以下为原始MNIST数据集的结构。您可以将数据集文件解压得到如下的文件结构,并通过MindSpore的API进行读取。
|
||||
|
||||
.. code-block::
|
||||
|
||||
|
@ -85,5 +85,5 @@ mindspore.dataset.MnistDataset
|
|||
howpublished = {http://yann.lecun.com/exdb/mnist}
|
||||
}
|
||||
|
||||
|
||||
.. include:: mindspore.dataset.api_list_vision.rst
|
||||
|
||||
.. include:: mindspore.dataset.api_list_vision.rst
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.dataset.SVHNDataset
|
|||
|
||||
读取和解析SVHN数据集的源文件构建数据集。
|
||||
|
||||
生成的数据集有两列: `[image, label]` 。 `image` 列的数据类型是uint8, `label` 列的数据类型是uint32。
|
||||
生成的数据集有两列: `[image, label]` 。 `image` 列的数据类型是uint8。 `label` 列的数据类型是uint32。
|
||||
|
||||
参数:
|
||||
- **dataset_dir** (str) - 包含数据集文件的根目录路径。
|
||||
|
@ -59,7 +59,7 @@ mindspore.dataset.SVHNDataset
|
|||
|
||||
SVHN数据集是从谷歌街景图像中的门牌号码中获得的,由10位数字组成。
|
||||
|
||||
以下是原始SVHN数据集结构,可以将数据集文件解压缩到此目录结构中,并由MindSpore的API读取。
|
||||
以下是原始SVHN数据集结构。可以将数据集文件解压缩到此目录结构中,并由MindSpore的API读取。
|
||||
|
||||
.. code-block::
|
||||
|
||||
|
@ -82,5 +82,5 @@ mindspore.dataset.SVHNDataset
|
|||
url={http://ufldl.stanford.edu/housenumbers}
|
||||
}
|
||||
|
||||
|
||||
.. include:: mindspore.dataset.api_list_vision.rst
|
||||
|
||||
.. include:: mindspore.dataset.api_list_vision.rst
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.dataset.audio.AllpassBiquad
|
|||
|
||||
给音频波形施加双极点全通滤波器,其中心频率和带宽由入参指定。
|
||||
|
||||
全通滤波器能够改变音频频率与相位的关系,而不改变频率与幅度的关系,其系统函数为:
|
||||
全通滤波器能够改变音频频率与相位的关系,而不改变频率与幅度的关系。其系统函数为:
|
||||
|
||||
.. math::
|
||||
H(s) = \frac{s^2 - \frac{s}{Q} + 1}{s^2 + \frac{s}{Q} + 1}
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.dataset.audio.BandBiquad
|
|||
|
||||
给音频波形施加双极点带通滤波器。
|
||||
|
||||
带通滤波器的频率响应在中心频率附近呈对数下降,下降的斜率由带宽决定,频带两端处输出音频的幅度将是原始幅度的一半。
|
||||
带通滤波器的频率响应在中心频率附近呈对数下降。下降的斜率由带宽决定。频带两端处输出音频的幅度将是原始幅度的一半。
|
||||
|
||||
接口实现方式类似于 `SoX库 <http://sox.sourceforge.net/sox.html>`_ 。
|
||||
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.dataset.audio.BassBiquad
|
|||
|
||||
给音频波形施加低音控制效果,即双极点低频搁架滤波器。
|
||||
|
||||
低频搁架滤波器能够通过所有频率,但将低于搁架的频率提升或衰减指定量,其系统函数为:
|
||||
低频搁架滤波器能够通过所有频率,但将低于搁架的频率提升或衰减指定量。其系统函数为:
|
||||
|
||||
.. math::
|
||||
H(s) = A\frac{s^2 + \frac{\sqrt{A}}{Q}s + A}{As^2 + \frac{\sqrt{A}}{Q}s + 1}
|
||||
|
|
|
@ -3,7 +3,8 @@ mindspore.dataset.audio.DetectPitchFrequency
|
|||
|
||||
.. py:class:: mindspore.dataset.audio.DetectPitchFrequency(sample_rate, frame_time=0.01, win_length=30, freq_low=85, freq_high=3400)
|
||||
|
||||
检测音调频率,基于归一化互相关函数和中位平滑来实现。
|
||||
检测音调频率。
|
||||
基于归一化互相关函数和中位平滑来实现。
|
||||
|
||||
参数:
|
||||
- **sample_rate** (int) - 采样频率(单位:Hz),值必须为44100或48000。
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.dataset.audio.LowpassBiquad
|
|||
|
||||
给音频波形施加双极点低通滤波器。
|
||||
|
||||
低通滤波器允许低频信号通过,但减弱频率高于截止频率的信号,其系统函数为:
|
||||
低通滤波器允许低频信号通过,但减弱频率高于截止频率的信号。其系统函数为:
|
||||
|
||||
.. math::
|
||||
H(s) = \frac{1}{s^2 + \frac{s}{Q} + 1}
|
||||
|
|
|
@ -3,9 +3,7 @@ mindspore.dataset.audio.MaskAlongAxisIID
|
|||
|
||||
.. py:class:: mindspore.dataset.audio.MaskAlongAxisIID(mask_param, mask_value, axis)
|
||||
|
||||
对音频波形应用掩码。掩码的起始和长度由 `[mask_start, mask_start + mask_width)` 决定。
|
||||
|
||||
其中 `mask_width` 从 `uniform[0, mask_param]` 中采样, `mask_start` 从 `uniform[0, max_length - mask_width]` 中采样,
|
||||
对音频波形应用掩码。掩码的起始和长度由 `[mask_start, mask_start + mask_width)` 决定,其中 `mask_width` 从 `uniform[0, mask_param]` 中采样, `mask_start` 从 `uniform[0, max_length - mask_width]` 中采样,
|
||||
`max_length` 是光谱图中特定轴的列数。
|
||||
|
||||
参数:
|
||||
|
|
|
@ -3,7 +3,7 @@ mindspore.dataset.audio.Resample
|
|||
|
||||
.. py:class:: mindspore.dataset.audio.Resample(orig_freq=16000, new_freq=16000, resample_method=ResampleMethod.SINC_INTERPOLATION, lowpass_filter_width=6, rolloff=0.99, beta=None)
|
||||
|
||||
将音频波形从一个频率重新采样到另一个频率,必要时可以指定重采样方法。
|
||||
将音频波形从一个频率重新采样到另一个频率。必要时可以指定重采样方法。
|
||||
|
||||
参数:
|
||||
- **orig_freq** (float, 可选) - 音频波形的原始频率,必须为正,默认值:16000。
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.dataset.text.FilterWikipediaXML
|
||||
=========================================
|
||||
|
||||
.. py:class:: mindspore.dataset.text.FilterWikipediaXML(vocab, unknown_token=None, data_type=mstype.int32)
|
||||
.. py:class:: mindspore.dataset.text.FilterWikipediaXML()
|
||||
|
||||
将Wikipedia XML格式转储过滤为仅由小写字母(a-z,从A-Z转换而来)和空格(从不连续)组成的“干净”文本。
|
||||
|
||||
|
|
|
@ -194,7 +194,7 @@ mindspore.rewrite
|
|||
下面提到的NodeImpl是Node的实现,它不是Rewrite的接口。Rewrite建议调用Node的特定 `create` 方法来实例化Node的实例,例如 `create_call_cell`,而不是直接调用Node的构造函数,所以不要关心NodeImpl是什么,只需要看做一个句柄即可。
|
||||
|
||||
参数:
|
||||
- **node** ( Node ) - SymbolTree中节点的具体实现类的实例。
|
||||
- **node** (Node) - SymbolTree中节点的具体实现类的实例。
|
||||
|
||||
.. py:method:: mindspore.rewrite.Node.create_call_cell(cell: Cell, targets: [Union[ScopedValue, str]], args: [ScopedValue] = None, kwargs: {str: ScopedValue}=None, name: str = "", is_sub_net: bool = False)
|
||||
:staticmethod:
|
||||
|
|
|
@ -75,7 +75,8 @@ mindspore.nn.Adam
|
|||
.. include:: mindspore.nn.optim_arg_dynamic_wd.rst
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_loss_scale.rst
|
||||
- **kwargs** -
|
||||
|
||||
- **kwargs** -
|
||||
- use_lazy (bool):是否使用Lazy Adam算法。默认值:False。如果为True,使用lazy Adam,反之使用普通Adam算法。
|
||||
- use_offload (bool):是否在主机CPU上运行Adam优化算法。默认值:False。如果为True,使用offload方法,反之使用普通Adam算法。
|
||||
|
||||
|
|
|
@ -523,7 +523,7 @@
|
|||
返回:
|
||||
Cell类型,Cell本身。
|
||||
|
||||
.. py:method:: shard(in_strategy, out_strategy, parameter_plan=None, device="Ascend", level=0)
|
||||
.. py:method:: shard(in_strategy, out_strategy=None, parameter_plan=None, device="Ascend", level=0)
|
||||
|
||||
指定输入/输出Tensor的分布策略,其余算子的策略推导得到。在PyNative模式下,可以利用此方法指定某个Cell以图模式进行分布式执行。 in_strategy/out_strategy需要为元组类型,
|
||||
其中的每一个元素指定对应的输入/输出的Tensor分布策略,可参考: `mindspore.ops.Primitive.shard` 的描述。也可以设置为None,会默认以数据并行执行。
|
||||
|
@ -536,7 +536,7 @@
|
|||
- **out_strategy** (Union[None, tuple]) - 指定各输出的切分策略,用法同in_strategy,目前未使能。默认值:None。
|
||||
- **parameter_plan** (Union[dict, None]) - 指定各参数的切分策略,传入字典时,键是str类型的参数名,值是1维整数tuple表示相应的切分策略,
|
||||
如果参数名错误或对应参数已经设置了切分策略,该参数的设置会被跳过。默认值:None。
|
||||
- **device** (string) - 指定执行设备,可以为["CPU", "GPU", "Ascend"]中任意一个,目前未使能。默认值:"Ascend"
|
||||
- **device** (string) - 指定执行设备,可以为["CPU", "GPU", "Ascend"]中任意一个,目前未使能。默认值:"Ascend"。
|
||||
- **level** (int) - 指定搜索切分策略的目标函数,即是最大化计算通信比、最小化内存消耗、最大化执行速度等。可以为[0, 1, 2]中任意一个,默认值:0。目前仅支持最大化计算通信比,其余模式未使能。
|
||||
|
||||
返回:
|
||||
|
|
|
@ -21,10 +21,10 @@ mindspore.ops.AlltoAll
|
|||
- **concat_dim** (int) - 在每个进程上,沿着 `concat_dimension` 拼接接收到的块(blocks)。
|
||||
- **group** (str) - AlltoAll的通信域。默认值:"GlobalComm.WORLD_COMM_GROUP"。
|
||||
|
||||
输入:
|
||||
输入:
|
||||
- **input_x** (Tensor) - shape为 :math:`(x_1, x_2, ..., x_R)`。
|
||||
|
||||
输出:
|
||||
输出:
|
||||
Tensor,设输入的shape是 :math:`(x_1, x_2, ..., x_R)`,则输出的shape为 :math:`(y_1, y_2, ..., y_R)`,其中:
|
||||
|
||||
:math:`y_{split\_dim} = x_{split\_dim} / split\_count`
|
||||
|
|
|
@ -5,7 +5,7 @@
|
|||
|
||||
根据指定的索引计算最大值,并返回索引和值。
|
||||
|
||||
在给定轴上计算输入Tensor的最大值,并且返回最大值和索引。
|
||||
在给定轴上计算输入Tensor的最大值。并且返回最大值和索引。
|
||||
|
||||
.. note::
|
||||
在auto_parallel和semi_auto_parallel模式下,不能使用第一个输出索引。
|
||||
|
|
|
@ -3,7 +3,7 @@ mindspore.ops.Einsum
|
|||
|
||||
.. py:class:: mindspore.ops.Einsum(equation)
|
||||
|
||||
此算子使用爱因斯坦求和约定(Einsum)进行Tensor计算,支持对角线、约和、转置、矩阵乘、乘积、内积运算等。
|
||||
此算子使用爱因斯坦求和约定(Einsum)进行Tensor计算。支持对角线、约和、转置、矩阵乘、乘积、内积运算等。
|
||||
|
||||
输入必须是Tensor的tuple。当输入只有一个Tensor时,可以输入(Tensor, ),支持数据类型float16、float32、float64。
|
||||
|
||||
|
|
|
@ -6,9 +6,9 @@ mindspore.ops.MultitypeFuncGraph
|
|||
MultitypeFuncGraph是一个用于生成重载函数的类,使用不同类型作为输入。使用 `name` 去初始化一个MultitypeFuncGraph,并且使用带有
|
||||
类型的 `register` 注册器进行装饰注册类型。这样使该函数可以使用不同的类型作为输入调用,一般与 `HyperMap` 与 `Map` 结合使用。
|
||||
|
||||
参数:
|
||||
参数:
|
||||
- **name** (str) - 操作名。
|
||||
- **read_value** (bool, 可选) - 如果注册函数不需要对输入的值进行更改,即所有输入都为按值传递,则将 `read_value` 设置为True。默认为: False。
|
||||
- **read_value** (bool, 可选) - 如果注册函数不需要对输入的值进行更改,即所有输入都为按值传递,则将 `read_value` 设置为True。默认为:False。
|
||||
|
||||
异常:
|
||||
异常:
|
||||
- **ValueError** - 找不到给定参数类型所匹配的函数。
|
||||
|
|
|
@ -20,8 +20,8 @@ mindspore.ops.NeighborExchange
|
|||
- **recv_type** (type) - 指定 `recv_rank_ids` 接收的数据类型。
|
||||
- **group** (str) - 要处理的通信范围。默认值:"GlobalComm.WORLD_COMM_GROUP"。
|
||||
|
||||
输入:
|
||||
输入:
|
||||
- **input_x** (tuple[Tensor]) - shape与参数send_shapes相同。
|
||||
|
||||
输出:
|
||||
输出:
|
||||
Tuple tensor,shape与参数recv_shapes相同。
|
||||
|
|
|
@ -22,34 +22,6 @@ mindspore.train.OnRequestExit
|
|||
- **ValueError** - `directory` 不是字符串。
|
||||
- **ValueError** - `sig` 不是int值,或者是signal.SIGKILL。
|
||||
|
||||
.. py:method:: on_train_begin(run_context)
|
||||
|
||||
在训练开始时,注册用户传入退出信号的处理程序。
|
||||
|
||||
参数:
|
||||
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。
|
||||
|
||||
.. py:method:: on_train_step_end(run_context)
|
||||
|
||||
在训练step结束时,如果接收到退出信号,将 `run_context` 的 `_stop_requested` 属性置为True。在本轮训练结束后,退出训练。
|
||||
|
||||
参数:
|
||||
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。
|
||||
|
||||
.. py:method:: on_train_epoch_end(run_context)
|
||||
|
||||
在训练epoch结束时,如果接收到退出信号,将 `run_context` 的 `_stop_requested` 属性置为True。在本轮训练结束后,退出训练。
|
||||
|
||||
参数:
|
||||
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。
|
||||
|
||||
.. py:method:: on_train_end(run_context)
|
||||
|
||||
在训练结束时,如果接收到退出信号,根据用户配置,保存checkpoint和mindir。
|
||||
|
||||
参数:
|
||||
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。
|
||||
|
||||
.. py:method:: on_eval_begin(run_context)
|
||||
|
||||
在推理开始时,注册用户传入退出信号的处理程序。
|
||||
|
@ -57,6 +29,13 @@ mindspore.train.OnRequestExit
|
|||
参数:
|
||||
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。
|
||||
|
||||
.. py:method:: on_eval_end(run_context)
|
||||
|
||||
在推理结束时,如果接收到退出信号,根据用户配置,保存checkpoint和mindir。
|
||||
|
||||
参数:
|
||||
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。
|
||||
|
||||
.. py:method:: on_eval_step_end(run_context)
|
||||
|
||||
在推理step结束时,如果接收到退出信号,将 `run_context` 的 `_stop_requested` 属性置为True。在本轮推理结束后,退出推理。
|
||||
|
@ -64,9 +43,31 @@ mindspore.train.OnRequestExit
|
|||
参数:
|
||||
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。
|
||||
|
||||
.. py:method:: on_eval_end(run_context)
|
||||
.. py:method:: on_train_begin(run_context)
|
||||
|
||||
在推理结束时,如果接收到退出信号,根据用户配置,保存checkpoint和mindir。
|
||||
在训练开始时,注册用户传入退出信号的处理程序。
|
||||
|
||||
参数:
|
||||
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。
|
||||
|
||||
.. py:method:: on_train_end(run_context)
|
||||
|
||||
在训练结束时,如果接收到退出信号,根据用户配置,保存checkpoint和mindir。
|
||||
|
||||
参数:
|
||||
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。
|
||||
|
||||
.. py:method:: on_train_epoch_end(run_context)
|
||||
|
||||
在训练epoch结束时,如果接收到退出信号,将 `run_context` 的 `_stop_requested` 属性置为True。在本轮训练结束后,退出训练。
|
||||
|
||||
参数:
|
||||
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。
|
||||
|
||||
.. py:method:: on_train_step_end(run_context)
|
||||
|
||||
在训练step结束时,如果接收到退出信号,将 `run_context` 的 `_stop_requested` 属性置为True。在本轮训练结束后,退出训练。
|
||||
|
||||
参数:
|
||||
- **run_context** (RunContext) - 包含模型的相关信息。详情请参考 :class:`mindspore.train.RunContext`。
|
||||
|
||||
|
|
|
@ -166,7 +166,7 @@ class NormType(str, Enum):
|
|||
|
||||
class ResampleMethod(str, Enum):
|
||||
"""
|
||||
Resample method
|
||||
Resample method.
|
||||
|
||||
Possible enumeration values are: ResampleMethod.SINC_INTERPOLATION, ResampleMethod.KAISER_WINDOW.
|
||||
|
||||
|
|
|
@ -4396,9 +4396,7 @@ class SVHNDataset(GeneratorDataset):
|
|||
|
||||
About SVHN dataset:
|
||||
|
||||
SVHN dataset consists of 10 digit classes.
|
||||
SVHN is obtained from house numbers in Google Street View images.
|
||||
73257 digits for training, 26032 digits for testing, and 531131 additional extra training data.
|
||||
SVHN dataset consists of 10 digit classes and is obtained from house numbers in Google Street View images.
|
||||
|
||||
Here is the original SVHN dataset structure.
|
||||
You can unzip the dataset files into this directory structure and read by MindSpore's API.
|
||||
|
@ -4645,7 +4643,7 @@ class VOCDataset(MappableDataset, VisionBaseDataset):
|
|||
>>> # In VOC dataset, if task='Segmentation', each dictionary has keys "image" and "target"
|
||||
>>> # In VOC dataset, if task='Detection', each dictionary has keys "image" and "annotation"
|
||||
|
||||
About VOC dataset.
|
||||
About VOC dataset:
|
||||
|
||||
The PASCAL Visual Object Classes (VOC) challenge is a benchmark in visual
|
||||
object category recognition and detection, providing the vision and machine
|
||||
|
|
|
@ -42,10 +42,10 @@ def serialize(dataset, json_filepath=""):
|
|||
json_filepath (str): The filepath where a serialized JSON file will be generated (default="").
|
||||
|
||||
Returns:
|
||||
Dict, The dictionary contains the serialized dataset graph.
|
||||
Dict, the dictionary contains the serialized dataset graph.
|
||||
|
||||
Raises:
|
||||
OSError: Cannot open a file
|
||||
OSError: Cannot open a file.
|
||||
|
||||
Examples:
|
||||
>>> dataset = ds.MnistDataset(mnist_dataset_dir, num_samples=100)
|
||||
|
|
|
@ -4218,7 +4218,8 @@ class ScatterMin(_ScatterOpDynamic):
|
|||
|
||||
Inputs of `input_x` and `updates` comply with the implicit type conversion rules to make the data types consistent.
|
||||
If they have different data types, the lower priority data type will be converted to
|
||||
the relatively highest priority data type.
|
||||
the relatively highest priority data type. A RuntimeError will be reported
|
||||
when `updates` does not support conversion to the data type required by `input_x`.
|
||||
|
||||
Args:
|
||||
use_locking (bool): Whether to protect the assignment by a lock. Default: False.
|
||||
|
|
|
@ -877,7 +877,7 @@ class NeighborExchangeV2(Primitive):
|
|||
Supported Platforms:
|
||||
``Ascend``
|
||||
|
||||
Example:
|
||||
Examples:
|
||||
>>> # This example should be run with 2 devices. Refer to the tutorial > Distributed Training on mindspore.cn
|
||||
>>> import os
|
||||
>>> import mindspore as ms
|
||||
|
|
|
@ -2349,8 +2349,8 @@ class ReduceStd(Primitive):
|
|||
|
||||
class Einsum(Primitive):
|
||||
"""
|
||||
This operator uses equation to represent a tuple of tensors operations,
|
||||
you can use this operator to perform diagonal/reducesum/transpose/matmul/mul/inner product operations, etc.
|
||||
This operator uses equation to represent a tuple of tensors operations.
|
||||
You can use this operator to perform diagonal/reducesum/transpose/matmul/mul/inner product operations, etc.
|
||||
|
||||
The inputs must be a tuple of tensors.
|
||||
When the inputs are only one tensor, you can input (tensor, )
|
||||
|
|
Loading…
Reference in New Issue