!41481 modify the inconsistence in files 0905

Merge pull request !41481 from 宦晓玲/code_docs_0905
This commit is contained in:
i-robot 2022-09-06 06:26:08 +00:00 committed by Gitee
commit 667144cde7
No known key found for this signature in database
GPG Key ID: 173E9B9CA92EEF8F
25 changed files with 40 additions and 36 deletions

View File

@ -5,7 +5,7 @@ mindspore.dataset.CoNLL2000Dataset
读取和解析CoNLL2000数据集的源数据集。
生成的数据集有三列 `[word, pos_tag, chunk_tag]` 三列的数据类型均为string。
生成的数据集有三列 `[word, pos_tag, chunk_tag]` 三列的数据类型均为string。
参数:
- **dataset_dir** (str) - 包含数据集文件的根目录路径。

View File

@ -29,12 +29,12 @@
- **num_parallel_workers** (int, 可选) - 指定 `batch` 操作的并发进程数/线程数(由参数 `python_multiprocessing` 决定当前为多进程模式或多线程模式)。
默认值None使用mindspore.dataset.config中配置的线程数。
- **per_batch_map** (Callable[[List[numpy.ndarray], ..., List[numpy.ndarray], BatchInfo], (List[numpy.ndarray],
..., List[numpy.ndarray])], optional, 可选) - 可调用对象,以(list[numpy.ndarray], list[numpy.ndarray], ..., BatchInfo)作为输入参数,
..., List[numpy.ndarray])], 可选) - 可调用对象,以(list[numpy.ndarray], list[numpy.ndarray], ..., BatchInfo)作为输入参数,
处理后返回(list[numpy.ndarray], list[numpy.ndarray],...)作为新的数据列。输入参数中每个list[numpy.ndarray]代表给定数据列中的一批numpy.ndarray
list[numpy.ndarray]的个数应与 `input_columns` 中传入列名的数量相匹配,在返回的(list[numpy.ndarray], list[numpy.ndarray], ...)中,
list[numpy.ndarray]的个数应与输入相同,如果输出列数与输入列数不一致,则需要指定 `output_columns`。该可调用对象的最后一个输入参数始终是BatchInfo
用于获取数据集的信息用法参考样例2
- **input_columns** (Union[str, list[str]], 可选)指定 `batch` 操作的输入数据列。
- **input_columns** (Union[str, list[str]], 可选) - 指定 `batch` 操作的输入数据列。
如果 `per_batch_map` 不为None列表中列名的个数应与 `per_batch_map` 中包含的列数匹配。默认值None不指定。
- **output_columns** (Union[str, list[str]], 可选) - 指定 `batch` 操作的输出数据列。如果输入数据列与输入数据列的长度不相等,则必须指定此参数。
此列表中列名的数量必须与 `per_batch_map` 方法的返回值数量相匹配。默认值None输出列将与输入列具有相同的名称。

View File

@ -10,7 +10,7 @@ mindspore.dataset.transforms.Concatenate
- **prepend** (numpy.ndarray, 可选) - 指定拼接在最前面的Tensor默认值None不指定。
- **append** (numpy.ndarray, 可选) - 指定拼接在最后面的Tensor默认值None不指定。
异常:
异常:
- **TypeError** - 参数 `axis` 的类型不为int。
- **TypeError** - 参数 `prepend` 的类型不为 `numpy.ndarray`
- **TypeError** - 参数 `append` 的类型不为 `numpy.ndarray`

View File

@ -6,7 +6,7 @@ mindspore.dataset.transforms.Slice
使用给定的slices对Tensor进行切片操作。功能类似于NumPy的索引(目前只支持1D形状的Tensor)。
参数:
- **slices** ((Union[int, list[int], slice, None, Ellipsis]) - 指定切片的信息,可以为
- **slices** (Union[int, list[int], slice, None, Ellipsis]) - 指定切片的信息,可以为
- 1. :py:obj:`int`: 沿着第一个维度切片对索引进行切片,支持负索引。
- 2. :py:obj:`list(int)`: 沿着第一个维度切片所有索引进行切片,支持负号索引。

View File

@ -109,6 +109,7 @@ MindSpore中 `mindspore.nn` 接口与上一版本相比,新增、删除和支
mindspore.nn.ELU
mindspore.nn.FastGelu
mindspore.nn.GELU
mindspore.nn.get_activation
mindspore.nn.Hardtanh
mindspore.nn.HShrink
mindspore.nn.HSigmoid
@ -400,7 +401,6 @@ Dynamic LR函数
mindspore.nn.ClipByNorm
mindspore.nn.Flatten
mindspore.nn.get_activation
mindspore.nn.L1Regularizer
mindspore.nn.Norm
mindspore.nn.OneHot

View File

@ -65,7 +65,7 @@ mindspore.COOTensor
返回指定数据类型的COOTensor。
参数:
- **dtype** (Union[`mindspore.dtype` , `numpy.dtype` , str]) - 指定数据类型。
- **dtype** (Union[mindspore.dtype, numpy.dtype, str]) - 指定数据类型。
返回:
COOTensor。

View File

@ -52,7 +52,7 @@ mindspore.CSRTensor
返回指定数据类型的CSRTensor。
参数:
- **dtype** (Union[`mindspore.dtype` , `numpy.dtype` , str]) - 指定数据类型。
- **dtype** (Union[mindspore.dtype, numpy.dtype, str]) - 指定数据类型。
返回:
CSRTensor。

View File

@ -103,7 +103,7 @@
.. note:: 同一批次数据应放在一个张量中。
参数:
- **predict_data** (Tensor) - 预测样本,数据可以是单个张量、张量列表或张量元组。
- **predict_data** (Union[Tensor, list[Tensor], tuple[Tensor]], 可选) - 预测样本,数据可以是单个张量、张量列表或张量元组。
返回:
Dict用于加载分布式checkpoint的参数layout字典。它总是作为 `load_distributed_checkpoint()` 函数的一个入参。
@ -132,7 +132,7 @@
输入样本得到预测结果。
参数:
- **predict_data** (Tensor) - 预测样本,数据可以是单个张量、张量列表或张量元组。
- **predict_data** (Union[Tensor, list[Tensor], tuple[Tensor]], 可选) - 预测样本,数据可以是单个张量、张量列表或张量元组。
返回:
返回预测结果类型是Tensor或Tensor元组。

View File

@ -33,7 +33,7 @@ mindspore.Profiler
.. py:method:: start()
开启Profiler数据采集可以按条件开启Profiler。
开启Profiler数据采集可以按条件开启Profiler。
异常:
- **RuntimeError** - profiler已经开启。
@ -42,7 +42,7 @@ mindspore.Profiler
.. py:method:: stop()
停止Profiler可以按条件停止Profiler。
停止Profiler可以按条件停止Profiler。
异常:
- **RuntimeError** - profiler没有开启。

View File

@ -24,6 +24,8 @@ mindspore.set_context
| | variable_memory_max_size | Ascend |
| +------------------------------+----------------------------+
| | mempool_block_size | GPU/Ascend |
| +------------------------------+----------------------------+
| | op_timeout | Ascend |
+-------------------------+------------------------------+----------------------------+
| 调试配置 | save_graphs | CPU/GPU/Ascend |
| +------------------------------+----------------------------+
@ -76,11 +78,12 @@ mindspore.set_context
- **max_device_memory** (str) - 设置设备可用的最大内存。格式为"xxGB"。默认值1024GB。实际使用的内存大小是设备的可用内存和 `max_device_memory` 值中的最小值。
- **variable_memory_max_size** (str) - 此参数已弃用,将被删除。请使用 `max_device_memory`
- **mempool_block_size** (str) - 设置设备内存池的块大小。格式为"xxGB"。默认值1GB。最小值是1GB。实际使用的内存池块大小是设备的可用内存和 `mempool_block_size` 值中的最小值。
- **op_timeout** (int) - 设置一个算子的最大执行时间以秒为单位。如果执行时间超过这个值系统将终止该任务。默认值28。
- **save_graphs** (bool) - 表示是否保存计算图。默认值False。当 `save_graphs` 属性设为True时 `save_graphs_path` 属性用于设置中间编译图的存储路径。默认情况下,计算图保存在当前目录下。
- **save_graphs_path** (str) - 表示保存计算图的路径。默认值:"."。如果指定的目录不存在,系统将自动创建该目录。在分布式训练中,图形将被保存到 `save_graphs_path/rank_${rank_id}/` 目录下。 `rank_id` 为集群中当前设备的ID。
- **enable_dump** (bool) - 此参数已弃用,将在下一版本中删除。
- **save_dump_path** (str) - 此参数已弃用,将在下一版本中删除。
- **print_file_path** (str)该路径用于保存打印数据。使用时 :class:`mindspore.ops.Print` 可以打印输入的张量或字符串信息,使用方法 :func:`mindspore.parse_print` 解析保存的文件。如果设置了此参数,打印数据保存到文件,未设置将显示到屏幕。如果保存的文件已经存在,则将添加时间戳后缀到文件中。将数据保存到文件解决了屏幕打印中的数据丢失问题, 如果未设置,将报告错误:"prompt to set the upper absolute path"。
- **print_file_path** (str) - 该路径用于保存打印数据。使用时 :class:`mindspore.ops.Print` 可以打印输入的张量或字符串信息,使用方法 :func:`mindspore.parse_print` 解析保存的文件。如果设置了此参数,打印数据保存到文件,未设置将显示到屏幕。如果保存的文件已经存在,则将添加时间戳后缀到文件中。将数据保存到文件解决了屏幕打印中的数据丢失问题如果未设置,将报告错误:"prompt to set the upper absolute path"。
- **env_config_path** (str) - 通过 `context.set_context(env_config_path="./mindspore_config.json")` 来设置MindSpore环境配置文件路径。
配置Running Data Recorder

View File

@ -5,7 +5,7 @@ mindspore.nn.Accuracy
计算数据分类的正确率,包括二分类和多分类。
此类创建两个局部变量,预测正确的样本数和总样本数,用于计算 `y_pred``y` 的匹配率此匹配率即为accuracy。
此类创建两个局部变量,预测正确的样本数和总样本数,用于计算 `y_pred``y` 的匹配率此匹配率即为accuracy。
.. math::
\text{accuracy} =\frac{\text{true_positive} + \text{true_negative}}

View File

@ -22,7 +22,7 @@ mindspore.nn.AdaSumByGradWrapCell
使用本接口时训练的卡的数量必须是2的幂并且至少需要16张卡。目前使用本接口时不支持优化器并行和流水线并行。
参数:
- **optimizer** (nn.optimizer) - 必须是单输入的优化器
- **optimizer** (Union[Cell]) - 用于更新权重的优化器。优化器的构造函数只允许一个输入
输入:
- **grads** (tuple[Tensor]) - `params` 的梯度形状shape`params` 相同,与所传优化器的输入一致。

View File

@ -45,8 +45,8 @@ mindspore.nn.FTRL
- **initial_accum** (float) - 累加器 `m` 的初始值必须大于等于零。默认值0.1。
- **learning_rate** (float) - 学习速率值必须为零或正数当前不支持动态学习率。默认值0.001。
- **lr_power** (float) - 学习率的幂值控制训练期间学习率的下降方式必须小于或等于零。如果lr_power为零则使用固定的学习率。默认值-0.5。
- **l1** (float)l1正则化强度必须大于等于零。默认值0.0。
- **l2** (float)l2正则化强度必须大于等于零。默认值0.0。
- **l1** (float) - l1正则化强度必须大于等于零。默认值0.0。
- **l2** (float) - l2正则化强度必须大于等于零。默认值0.0。
- **use_locking** (bool) - 如果为True则更新操作使用锁保护。默认值False。
.. include:: mindspore.nn.optim_arg_loss_scale.rst

View File

@ -14,7 +14,7 @@ mindspore.nn.Precision
在多标签情况下, :math:`y`:math:`y_{pred}` 的元素必须为0或1。
参数:
- **eval_type** str- 支持'classification'和'multilabel'。默认值:'classification'。
- **eval_type** (str) - 支持'classification'和'multilabel'。默认值:'classification'。
.. py:method:: clear()

View File

@ -5,6 +5,8 @@ mindspore.nn.RNN
循环神经网络RNN其使用的激活函数为tanh或relu。
将具有 :math:`\tanh`:math:`\text{ReLU}` 非线性的RNN层应用到输入。
对输入序列中的每个元素,每层的计算公式如下:
.. math::

View File

@ -109,6 +109,7 @@ Nonlinear Activation Function Layer
mindspore.nn.ELU
mindspore.nn.FastGelu
mindspore.nn.GELU
mindspore.nn.get_activation
mindspore.nn.Hardtanh
mindspore.nn.HShrink
mindspore.nn.HSigmoid
@ -403,7 +404,6 @@ Tools
mindspore.nn.ClipByNorm
mindspore.nn.Flatten
mindspore.nn.get_activation
mindspore.nn.L1Regularizer
mindspore.nn.Norm
mindspore.nn.OneHot

View File

@ -5845,7 +5845,7 @@ class CSRTensor(CSRTensor_):
must be :class:`mindspore.int16`, :class:`mindspore.int32` or :class:`mindspore.int64`.
values (Tensor): Tensor, which has the same length as `indices` (values.shape[0] == indices.shape[0]).
`values` stores the data for CSRTensor. Default: None.
shape (Tuple): A tuple indicates the shape of the CSRTensor, and `shape[0]` must equal to `M - 1`,
shape (tuple(int)): A tuple indicates the shape of the CSRTensor, and `shape[0]` must equal to `M - 1`,
which all equal to number of rows of the CSRTensor. Default: None.
csr_tensor (CSRTensor): A CSRTensor object. Values' feature dimension should match with
CSRTensor's feature dimension (values.shape[1:] == csr_tensor.shape[2:]). Default: None.

View File

@ -555,7 +555,7 @@ class Dataset:
It is recommended that the repeat operation applied after the batch operation finished.
Args:
batch_size (int or function): The number of rows each batch is created with. An
batch_size (Union[int, Callable]): The number of rows each batch is created with. An
int or callable object which takes exactly 1 parameter, BatchInfo.
drop_remainder (bool, optional): Determines whether or not to drop the last block
whose data row number is less than batch size (default=False). If True, and if there are less
@ -1971,10 +1971,9 @@ class TextBaseDataset(Dataset):
Desired source dataset is a text type dataset.
Build a vocab from a dataset. This would collect all the unique words in a dataset and return a vocab
which contains top_k most frequent words (if top_k is specified)
which contains top_k most frequent words (if top_k is specified).
Args:
columns(Union[str, list[str]]): Column names to get words from.
freq_range(tuple[int]): A tuple of integers (min_frequency, max_frequency). Words within the frequency
range will be stored.
@ -2042,7 +2041,6 @@ class TextBaseDataset(Dataset):
Desired source dataset is a text type dataset.
Args:
columns(list[str]): Column names to get words from.
vocab_size(int): Vocabulary size.
character_coverage(float): Percentage of characters covered by the model, must be between

View File

@ -460,9 +460,8 @@ class CoNLL2000Dataset(SourceDataset, TextBaseDataset):
A source dataset that reads and parses CoNLL2000 chunking dataset.
The generated dataset has three columns: :py:obj:`[word, pos_tag, chunk_tag]`.
The tensor of column :py:obj:`word` is of the string type.
The tensor of column :py:obj:`pos_tag` is of the string type.
The tensor of column :py:obj:`chunk_tag` is of the string type.
The tensors of column :py:obj:`word`, column :py:obj:`pos_tag`,
and column :py:obj:`chunk_tag` are of the string type.
Args:
dataset_dir (str): Path to the root directory that contains the CoNLL2000 chunking dataset.

View File

@ -277,7 +277,7 @@ class Compose(CompoundOperation):
Remove all compose operation from the given list of operations.
Args:
operations: list of transforms
operations (list): list of transforms.
Returns:
list of operations without compose operations.
@ -347,9 +347,9 @@ class Concatenate(TensorOperation):
Args:
axis (int, optional): Concatenate the tensors along given axis (Default=0).
prepend (numpy.array, optional): NumPy array to be prepended to the already concatenated tensors
prepend (numpy.ndarray, optional): NumPy array to be prepended to the already concatenated tensors
(Default=None).
append (numpy.array, optional): NumPy array to be appended to the already concatenated tensors (Default=None).
append (numpy.ndarray, optional): NumPy array to be appended to the already concatenated tensors (Default=None).
Raises:
TypeError: If `axis` is not of type int.

View File

@ -32,7 +32,7 @@ finally:
class OcclusionSensitivity(Metric):
"""
Calculates the occlusion sensitivity of the model for a given image. It illustrates which parts of an image are
Calculates the occlusion sensitivity of the model for a given image, which illustrates which parts of an image are
most important for a network's classification.
Occlusion sensitivity refers to how the predicted probability changes with the change of the occluded

View File

@ -27,7 +27,7 @@ class Precision(EvaluationBase):
Calculates precision for classification and multilabel data.
The precision function creates two local variables, :math:`\text{true_positive}` and
:math:`\text{false_positive}`, that are used to compute the precision. The calculation formula is:
:math:`\text{false_positive}`, which are used to compute the precision. The calculation formula is:
.. math::
\text{precision} = \frac{\text{true_positive}}{\text{true_positive} + \text{false_positive}}

View File

@ -151,7 +151,7 @@ class FTRL(Optimizer):
If parameters are not grouped, the `weight_decay` in optimizer will be applied on the network parameters without
'beta' or 'gamma' in their names. Users can group parameters to change the strategy of decaying weight. When
parameters are grouped, each group can set `weight_decay`, if not, the `weight_decay` in optimizer will be
parameters are grouped, each group can set `weight_decay`. If not, the `weight_decay` in optimizer will be
applied.
Args:

View File

@ -72,7 +72,7 @@ class EarlyStopping(Callback):
baseline (float): Baseline value for the monitor. When the monitor value shows
improvement over the history best value and the baseline, the internal
wait counter will be set to zero. Default: None.
restore_best_weights: Whether to restore model weights from
restore_best_weights (bool): Whether to restore model weights from
the epoch with the best value of the monitored quantity.
If False, the model weights obtained at the last step of
training are used. Default: False.

View File

@ -1442,7 +1442,8 @@ class Model:
Generate output predictions for the input samples.
Args:
predict_data (Optional[Tensor, list[Tensor], tuple[Tensor]]): The predict data, can be a single tensor,
predict_data (Union[Tensor, list[Tensor], tuple[Tensor]], optional):
The predict data, can be a single tensor,
a list of tensor, or a tuple of tensor.
Returns:
@ -1577,7 +1578,8 @@ class Model:
Batch data should be put together in one tensor.
Args:
predict_data (Optional[Tensor, list[Tensor], tuple[Tensor]]): The predict data, can be a single tensor,
predict_data (Union[Tensor, list[Tensor], tuple[Tensor]], optional):
The predict data, can be a single tensor,
a list of tensor, or a tuple of tensor.
Returns: