forked from mindspore-Ecosystem/mindspore
!41481 modify the inconsistence in files 0905
Merge pull request !41481 from 宦晓玲/code_docs_0905
This commit is contained in:
commit
667144cde7
|
@ -5,7 +5,7 @@ mindspore.dataset.CoNLL2000Dataset
|
|||
|
||||
读取和解析CoNLL2000数据集的源数据集。
|
||||
|
||||
生成的数据集有三列 `[word, pos_tag, chunk_tag]` ,三列的数据类型均为string。
|
||||
生成的数据集有三列 `[word, pos_tag, chunk_tag]` 。三列的数据类型均为string。
|
||||
|
||||
参数:
|
||||
- **dataset_dir** (str) - 包含数据集文件的根目录路径。
|
||||
|
|
|
@ -29,12 +29,12 @@
|
|||
- **num_parallel_workers** (int, 可选) - 指定 `batch` 操作的并发进程数/线程数(由参数 `python_multiprocessing` 决定当前为多进程模式或多线程模式)。
|
||||
默认值:None,使用mindspore.dataset.config中配置的线程数。
|
||||
- **per_batch_map** (Callable[[List[numpy.ndarray], ..., List[numpy.ndarray], BatchInfo], (List[numpy.ndarray],
|
||||
..., List[numpy.ndarray])], optional, 可选) - 可调用对象,以(list[numpy.ndarray], list[numpy.ndarray], ..., BatchInfo)作为输入参数,
|
||||
..., List[numpy.ndarray])], 可选) - 可调用对象,以(list[numpy.ndarray], list[numpy.ndarray], ..., BatchInfo)作为输入参数,
|
||||
处理后返回(list[numpy.ndarray], list[numpy.ndarray],...)作为新的数据列。输入参数中每个list[numpy.ndarray]代表给定数据列中的一批numpy.ndarray,
|
||||
list[numpy.ndarray]的个数应与 `input_columns` 中传入列名的数量相匹配,在返回的(list[numpy.ndarray], list[numpy.ndarray], ...)中,
|
||||
list[numpy.ndarray]的个数应与输入相同,如果输出列数与输入列数不一致,则需要指定 `output_columns`。该可调用对象的最后一个输入参数始终是BatchInfo,
|
||||
用于获取数据集的信息,用法参考样例(2)。
|
||||
- **input_columns** (Union[str, list[str]], 可选):指定 `batch` 操作的输入数据列。
|
||||
- **input_columns** (Union[str, list[str]], 可选) - 指定 `batch` 操作的输入数据列。
|
||||
如果 `per_batch_map` 不为None,列表中列名的个数应与 `per_batch_map` 中包含的列数匹配。默认值:None,不指定。
|
||||
- **output_columns** (Union[str, list[str]], 可选) - 指定 `batch` 操作的输出数据列。如果输入数据列与输入数据列的长度不相等,则必须指定此参数。
|
||||
此列表中列名的数量必须与 `per_batch_map` 方法的返回值数量相匹配。默认值:None,输出列将与输入列具有相同的名称。
|
||||
|
|
|
@ -10,7 +10,7 @@ mindspore.dataset.transforms.Concatenate
|
|||
- **prepend** (numpy.ndarray, 可选) - 指定拼接在最前面的Tensor,默认值:None,不指定。
|
||||
- **append** (numpy.ndarray, 可选) - 指定拼接在最后面的Tensor,默认值:None,不指定。
|
||||
|
||||
异常:
|
||||
异常:
|
||||
- **TypeError** - 参数 `axis` 的类型不为int。
|
||||
- **TypeError** - 参数 `prepend` 的类型不为 `numpy.ndarray` 。
|
||||
- **TypeError** - 参数 `append` 的类型不为 `numpy.ndarray` 。
|
||||
|
|
|
@ -6,7 +6,7 @@ mindspore.dataset.transforms.Slice
|
|||
使用给定的slices,对Tensor进行切片操作。功能类似于NumPy的索引(目前只支持1D形状的Tensor)。
|
||||
|
||||
参数:
|
||||
- **slices** ((Union[int, list[int], slice, None, Ellipsis]) - 指定切片的信息,可以为
|
||||
- **slices** (Union[int, list[int], slice, None, Ellipsis]) - 指定切片的信息,可以为
|
||||
|
||||
- 1. :py:obj:`int`: 沿着第一个维度切片对索引进行切片,支持负索引。
|
||||
- 2. :py:obj:`list(int)`: 沿着第一个维度切片所有索引进行切片,支持负号索引。
|
||||
|
|
|
@ -109,6 +109,7 @@ MindSpore中 `mindspore.nn` 接口与上一版本相比,新增、删除和支
|
|||
mindspore.nn.ELU
|
||||
mindspore.nn.FastGelu
|
||||
mindspore.nn.GELU
|
||||
mindspore.nn.get_activation
|
||||
mindspore.nn.Hardtanh
|
||||
mindspore.nn.HShrink
|
||||
mindspore.nn.HSigmoid
|
||||
|
@ -400,7 +401,6 @@ Dynamic LR函数
|
|||
|
||||
mindspore.nn.ClipByNorm
|
||||
mindspore.nn.Flatten
|
||||
mindspore.nn.get_activation
|
||||
mindspore.nn.L1Regularizer
|
||||
mindspore.nn.Norm
|
||||
mindspore.nn.OneHot
|
||||
|
|
|
@ -65,7 +65,7 @@ mindspore.COOTensor
|
|||
返回指定数据类型的COOTensor。
|
||||
|
||||
参数:
|
||||
- **dtype** (Union[`mindspore.dtype` , `numpy.dtype` , str]) - 指定数据类型。
|
||||
- **dtype** (Union[mindspore.dtype, numpy.dtype, str]) - 指定数据类型。
|
||||
|
||||
返回:
|
||||
COOTensor。
|
||||
|
|
|
@ -52,7 +52,7 @@ mindspore.CSRTensor
|
|||
返回指定数据类型的CSRTensor。
|
||||
|
||||
参数:
|
||||
- **dtype** (Union[`mindspore.dtype` , `numpy.dtype` , str]) - 指定数据类型。
|
||||
- **dtype** (Union[mindspore.dtype, numpy.dtype, str]) - 指定数据类型。
|
||||
|
||||
返回:
|
||||
CSRTensor。
|
||||
|
|
|
@ -103,7 +103,7 @@
|
|||
.. note:: 同一批次数据应放在一个张量中。
|
||||
|
||||
参数:
|
||||
- **predict_data** (Tensor) - 预测样本,数据可以是单个张量、张量列表或张量元组。
|
||||
- **predict_data** (Union[Tensor, list[Tensor], tuple[Tensor]], 可选) - 预测样本,数据可以是单个张量、张量列表或张量元组。
|
||||
|
||||
返回:
|
||||
Dict,用于加载分布式checkpoint的参数layout字典。它总是作为 `load_distributed_checkpoint()` 函数的一个入参。
|
||||
|
@ -132,7 +132,7 @@
|
|||
输入样本得到预测结果。
|
||||
|
||||
参数:
|
||||
- **predict_data** (Tensor) - 预测样本,数据可以是单个张量、张量列表或张量元组。
|
||||
- **predict_data** (Union[Tensor, list[Tensor], tuple[Tensor]], 可选) - 预测样本,数据可以是单个张量、张量列表或张量元组。
|
||||
|
||||
返回:
|
||||
返回预测结果,类型是Tensor或Tensor元组。
|
||||
|
|
|
@ -33,7 +33,7 @@ mindspore.Profiler
|
|||
|
||||
.. py:method:: start()
|
||||
|
||||
开启Profiler数据采集,可以按条件开启Profiler。
|
||||
开启Profiler数据采集。可以按条件开启Profiler。
|
||||
|
||||
异常:
|
||||
- **RuntimeError** - profiler已经开启。
|
||||
|
@ -42,7 +42,7 @@ mindspore.Profiler
|
|||
|
||||
.. py:method:: stop()
|
||||
|
||||
停止Profiler,可以按条件停止Profiler。
|
||||
停止Profiler。可以按条件停止Profiler。
|
||||
|
||||
异常:
|
||||
- **RuntimeError** - profiler没有开启。
|
||||
|
|
|
@ -24,6 +24,8 @@ mindspore.set_context
|
|||
| | variable_memory_max_size | Ascend |
|
||||
| +------------------------------+----------------------------+
|
||||
| | mempool_block_size | GPU/Ascend |
|
||||
| +------------------------------+----------------------------+
|
||||
| | op_timeout | Ascend |
|
||||
+-------------------------+------------------------------+----------------------------+
|
||||
| 调试配置 | save_graphs | CPU/GPU/Ascend |
|
||||
| +------------------------------+----------------------------+
|
||||
|
@ -76,11 +78,12 @@ mindspore.set_context
|
|||
- **max_device_memory** (str) - 设置设备可用的最大内存。格式为"xxGB"。默认值:1024GB。实际使用的内存大小是设备的可用内存和 `max_device_memory` 值中的最小值。
|
||||
- **variable_memory_max_size** (str) - 此参数已弃用,将被删除。请使用 `max_device_memory` 。
|
||||
- **mempool_block_size** (str) - 设置设备内存池的块大小。格式为"xxGB"。默认值:1GB。最小值是1GB。实际使用的内存池块大小是设备的可用内存和 `mempool_block_size` 值中的最小值。
|
||||
- **op_timeout** (int) - 设置一个算子的最大执行时间,以秒为单位。如果执行时间超过这个值,系统将终止该任务。默认值:28。
|
||||
- **save_graphs** (bool) - 表示是否保存计算图。默认值:False。当 `save_graphs` 属性设为True时, `save_graphs_path` 属性用于设置中间编译图的存储路径。默认情况下,计算图保存在当前目录下。
|
||||
- **save_graphs_path** (str) - 表示保存计算图的路径。默认值:"."。如果指定的目录不存在,系统将自动创建该目录。在分布式训练中,图形将被保存到 `save_graphs_path/rank_${rank_id}/` 目录下。 `rank_id` 为集群中当前设备的ID。
|
||||
- **enable_dump** (bool) - 此参数已弃用,将在下一版本中删除。
|
||||
- **save_dump_path** (str) - 此参数已弃用,将在下一版本中删除。
|
||||
- **print_file_path** (str):该路径用于保存打印数据。使用时 :class:`mindspore.ops.Print` 可以打印输入的张量或字符串信息,使用方法 :func:`mindspore.parse_print` 解析保存的文件。如果设置了此参数,打印数据保存到文件,未设置将显示到屏幕。如果保存的文件已经存在,则将添加时间戳后缀到文件中。将数据保存到文件解决了屏幕打印中的数据丢失问题, 如果未设置,将报告错误:"prompt to set the upper absolute path"。
|
||||
- **print_file_path** (str) - 该路径用于保存打印数据。使用时 :class:`mindspore.ops.Print` 可以打印输入的张量或字符串信息,使用方法 :func:`mindspore.parse_print` 解析保存的文件。如果设置了此参数,打印数据保存到文件,未设置将显示到屏幕。如果保存的文件已经存在,则将添加时间戳后缀到文件中。将数据保存到文件解决了屏幕打印中的数据丢失问题,如果未设置,将报告错误:"prompt to set the upper absolute path"。
|
||||
- **env_config_path** (str) - 通过 `context.set_context(env_config_path="./mindspore_config.json")` 来设置MindSpore环境配置文件路径。
|
||||
|
||||
配置Running Data Recorder:
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.nn.Accuracy
|
|||
|
||||
计算数据分类的正确率,包括二分类和多分类。
|
||||
|
||||
此类创建两个局部变量,预测正确的样本数和总样本数,用于计算 `y_pred` 和 `y` 的匹配率,此匹配率即为accuracy。
|
||||
此类创建两个局部变量,预测正确的样本数和总样本数,用于计算 `y_pred` 和 `y` 的匹配率。此匹配率即为accuracy。
|
||||
|
||||
.. math::
|
||||
\text{accuracy} =\frac{\text{true_positive} + \text{true_negative}}
|
||||
|
|
|
@ -22,7 +22,7 @@ mindspore.nn.AdaSumByGradWrapCell
|
|||
使用本接口时,训练的卡的数量必须是2的幂,并且至少需要16张卡。目前,使用本接口时不支持优化器并行和流水线并行。
|
||||
|
||||
参数:
|
||||
- **optimizer** (nn.optimizer) - 必须是单输入的优化器。
|
||||
- **optimizer** (Union[Cell]) - 用于更新权重的优化器。优化器的构造函数只允许一个输入。
|
||||
|
||||
输入:
|
||||
- **grads** (tuple[Tensor]) - `params` 的梯度,形状(shape)与 `params` 相同,与所传优化器的输入一致。
|
||||
|
|
|
@ -45,8 +45,8 @@ mindspore.nn.FTRL
|
|||
- **initial_accum** (float) - 累加器 `m` 的初始值,必须大于等于零。默认值:0.1。
|
||||
- **learning_rate** (float) - 学习速率值必须为零或正数,当前不支持动态学习率。默认值:0.001。
|
||||
- **lr_power** (float) - 学习率的幂值,控制训练期间学习率的下降方式,必须小于或等于零。如果lr_power为零,则使用固定的学习率。默认值:-0.5。
|
||||
- **l1** (float):l1正则化强度,必须大于等于零。默认值:0.0。
|
||||
- **l2** (float):l2正则化强度,必须大于等于零。默认值:0.0。
|
||||
- **l1** (float) - l1正则化强度,必须大于等于零。默认值:0.0。
|
||||
- **l2** (float) - l2正则化强度,必须大于等于零。默认值:0.0。
|
||||
- **use_locking** (bool) - 如果为True,则更新操作使用锁保护。默认值:False。
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_loss_scale.rst
|
||||
|
|
|
@ -14,7 +14,7 @@ mindspore.nn.Precision
|
|||
在多标签情况下, :math:`y` 和 :math:`y_{pred}` 的元素必须为0或1。
|
||||
|
||||
参数:
|
||||
- **eval_type** (str)- 支持'classification'和'multilabel'。默认值:'classification'。
|
||||
- **eval_type** (str) - 支持'classification'和'multilabel'。默认值:'classification'。
|
||||
|
||||
.. py:method:: clear()
|
||||
|
||||
|
|
|
@ -5,6 +5,8 @@ mindspore.nn.RNN
|
|||
|
||||
循环神经网络(RNN)层,其使用的激活函数为tanh或relu。
|
||||
|
||||
将具有 :math:`\tanh` 或 :math:`\text{ReLU}` 非线性的RNN层应用到输入。
|
||||
|
||||
对输入序列中的每个元素,每层的计算公式如下:
|
||||
|
||||
.. math::
|
||||
|
|
|
@ -109,6 +109,7 @@ Nonlinear Activation Function Layer
|
|||
mindspore.nn.ELU
|
||||
mindspore.nn.FastGelu
|
||||
mindspore.nn.GELU
|
||||
mindspore.nn.get_activation
|
||||
mindspore.nn.Hardtanh
|
||||
mindspore.nn.HShrink
|
||||
mindspore.nn.HSigmoid
|
||||
|
@ -403,7 +404,6 @@ Tools
|
|||
|
||||
mindspore.nn.ClipByNorm
|
||||
mindspore.nn.Flatten
|
||||
mindspore.nn.get_activation
|
||||
mindspore.nn.L1Regularizer
|
||||
mindspore.nn.Norm
|
||||
mindspore.nn.OneHot
|
||||
|
|
|
@ -5845,7 +5845,7 @@ class CSRTensor(CSRTensor_):
|
|||
must be :class:`mindspore.int16`, :class:`mindspore.int32` or :class:`mindspore.int64`.
|
||||
values (Tensor): Tensor, which has the same length as `indices` (values.shape[0] == indices.shape[0]).
|
||||
`values` stores the data for CSRTensor. Default: None.
|
||||
shape (Tuple): A tuple indicates the shape of the CSRTensor, and `shape[0]` must equal to `M - 1`,
|
||||
shape (tuple(int)): A tuple indicates the shape of the CSRTensor, and `shape[0]` must equal to `M - 1`,
|
||||
which all equal to number of rows of the CSRTensor. Default: None.
|
||||
csr_tensor (CSRTensor): A CSRTensor object. Values' feature dimension should match with
|
||||
CSRTensor's feature dimension (values.shape[1:] == csr_tensor.shape[2:]). Default: None.
|
||||
|
|
|
@ -555,7 +555,7 @@ class Dataset:
|
|||
It is recommended that the repeat operation applied after the batch operation finished.
|
||||
|
||||
Args:
|
||||
batch_size (int or function): The number of rows each batch is created with. An
|
||||
batch_size (Union[int, Callable]): The number of rows each batch is created with. An
|
||||
int or callable object which takes exactly 1 parameter, BatchInfo.
|
||||
drop_remainder (bool, optional): Determines whether or not to drop the last block
|
||||
whose data row number is less than batch size (default=False). If True, and if there are less
|
||||
|
@ -1971,10 +1971,9 @@ class TextBaseDataset(Dataset):
|
|||
Desired source dataset is a text type dataset.
|
||||
|
||||
Build a vocab from a dataset. This would collect all the unique words in a dataset and return a vocab
|
||||
which contains top_k most frequent words (if top_k is specified)
|
||||
which contains top_k most frequent words (if top_k is specified).
|
||||
|
||||
Args:
|
||||
|
||||
columns(Union[str, list[str]]): Column names to get words from.
|
||||
freq_range(tuple[int]): A tuple of integers (min_frequency, max_frequency). Words within the frequency
|
||||
range will be stored.
|
||||
|
@ -2042,7 +2041,6 @@ class TextBaseDataset(Dataset):
|
|||
Desired source dataset is a text type dataset.
|
||||
|
||||
Args:
|
||||
|
||||
columns(list[str]): Column names to get words from.
|
||||
vocab_size(int): Vocabulary size.
|
||||
character_coverage(float): Percentage of characters covered by the model, must be between
|
||||
|
|
|
@ -460,9 +460,8 @@ class CoNLL2000Dataset(SourceDataset, TextBaseDataset):
|
|||
A source dataset that reads and parses CoNLL2000 chunking dataset.
|
||||
|
||||
The generated dataset has three columns: :py:obj:`[word, pos_tag, chunk_tag]`.
|
||||
The tensor of column :py:obj:`word` is of the string type.
|
||||
The tensor of column :py:obj:`pos_tag` is of the string type.
|
||||
The tensor of column :py:obj:`chunk_tag` is of the string type.
|
||||
The tensors of column :py:obj:`word`, column :py:obj:`pos_tag`,
|
||||
and column :py:obj:`chunk_tag` are of the string type.
|
||||
|
||||
Args:
|
||||
dataset_dir (str): Path to the root directory that contains the CoNLL2000 chunking dataset.
|
||||
|
|
|
@ -277,7 +277,7 @@ class Compose(CompoundOperation):
|
|||
Remove all compose operation from the given list of operations.
|
||||
|
||||
Args:
|
||||
operations: list of transforms
|
||||
operations (list): list of transforms.
|
||||
|
||||
Returns:
|
||||
list of operations without compose operations.
|
||||
|
@ -347,9 +347,9 @@ class Concatenate(TensorOperation):
|
|||
|
||||
Args:
|
||||
axis (int, optional): Concatenate the tensors along given axis (Default=0).
|
||||
prepend (numpy.array, optional): NumPy array to be prepended to the already concatenated tensors
|
||||
prepend (numpy.ndarray, optional): NumPy array to be prepended to the already concatenated tensors
|
||||
(Default=None).
|
||||
append (numpy.array, optional): NumPy array to be appended to the already concatenated tensors (Default=None).
|
||||
append (numpy.ndarray, optional): NumPy array to be appended to the already concatenated tensors (Default=None).
|
||||
|
||||
Raises:
|
||||
TypeError: If `axis` is not of type int.
|
||||
|
|
|
@ -32,7 +32,7 @@ finally:
|
|||
|
||||
class OcclusionSensitivity(Metric):
|
||||
"""
|
||||
Calculates the occlusion sensitivity of the model for a given image. It illustrates which parts of an image are
|
||||
Calculates the occlusion sensitivity of the model for a given image, which illustrates which parts of an image are
|
||||
most important for a network's classification.
|
||||
|
||||
Occlusion sensitivity refers to how the predicted probability changes with the change of the occluded
|
||||
|
|
|
@ -27,7 +27,7 @@ class Precision(EvaluationBase):
|
|||
Calculates precision for classification and multilabel data.
|
||||
|
||||
The precision function creates two local variables, :math:`\text{true_positive}` and
|
||||
:math:`\text{false_positive}`, that are used to compute the precision. The calculation formula is:
|
||||
:math:`\text{false_positive}`, which are used to compute the precision. The calculation formula is:
|
||||
|
||||
.. math::
|
||||
\text{precision} = \frac{\text{true_positive}}{\text{true_positive} + \text{false_positive}}
|
||||
|
|
|
@ -151,7 +151,7 @@ class FTRL(Optimizer):
|
|||
|
||||
If parameters are not grouped, the `weight_decay` in optimizer will be applied on the network parameters without
|
||||
'beta' or 'gamma' in their names. Users can group parameters to change the strategy of decaying weight. When
|
||||
parameters are grouped, each group can set `weight_decay`, if not, the `weight_decay` in optimizer will be
|
||||
parameters are grouped, each group can set `weight_decay`. If not, the `weight_decay` in optimizer will be
|
||||
applied.
|
||||
|
||||
Args:
|
||||
|
|
|
@ -72,7 +72,7 @@ class EarlyStopping(Callback):
|
|||
baseline (float): Baseline value for the monitor. When the monitor value shows
|
||||
improvement over the history best value and the baseline, the internal
|
||||
wait counter will be set to zero. Default: None.
|
||||
restore_best_weights: Whether to restore model weights from
|
||||
restore_best_weights (bool): Whether to restore model weights from
|
||||
the epoch with the best value of the monitored quantity.
|
||||
If False, the model weights obtained at the last step of
|
||||
training are used. Default: False.
|
||||
|
|
|
@ -1442,7 +1442,8 @@ class Model:
|
|||
Generate output predictions for the input samples.
|
||||
|
||||
Args:
|
||||
predict_data (Optional[Tensor, list[Tensor], tuple[Tensor]]): The predict data, can be a single tensor,
|
||||
predict_data (Union[Tensor, list[Tensor], tuple[Tensor]], optional):
|
||||
The predict data, can be a single tensor,
|
||||
a list of tensor, or a tuple of tensor.
|
||||
|
||||
Returns:
|
||||
|
@ -1577,7 +1578,8 @@ class Model:
|
|||
Batch data should be put together in one tensor.
|
||||
|
||||
Args:
|
||||
predict_data (Optional[Tensor, list[Tensor], tuple[Tensor]]): The predict data, can be a single tensor,
|
||||
predict_data (Union[Tensor, list[Tensor], tuple[Tensor]], optional):
|
||||
The predict data, can be a single tensor,
|
||||
a list of tensor, or a tuple of tensor.
|
||||
|
||||
Returns:
|
||||
|
|
Loading…
Reference in New Issue