modify url link with api_updates

This commit is contained in:
huodagu 2023-02-08 15:48:59 +08:00
parent bcd1e1c643
commit 8c9a2b0a28
22 changed files with 19 additions and 112 deletions

View File

@ -3,7 +3,7 @@ mindspore.dataset.text.CaseFold
.. py:class:: mindspore.dataset.text.CaseFold()
将UTF-8编码字符串中的字符规范化为小写相比 :func:`str.lower` 支持更多字符。
将UTF-8编码字符串中的字符规范化为小写相比 :code:`str.lower` 支持更多字符。
支持的输入规范化形式详见 `ICU_Normalizer2 <https://unicode-org.github.io/icu-docs/apidoc/released/icu4c/classicu_1_1Normalizer2.html>`_

View File

@ -76,7 +76,6 @@ MindSpore中 `mindspore.ops.primitive` 接口与上一版本相比,新增、
mindspore.ops.Pad
mindspore.ops.Padding
mindspore.ops.ResizeBilinear
mindspore.ops.ResizeLinear1D
mindspore.ops.ResizeNearestNeighbor
mindspore.ops.UpsampleNearest3D
mindspore.ops.UpsampleTrilinear3D
@ -210,7 +209,6 @@ MindSpore中 `mindspore.ops.primitive` 接口与上一版本相比,新增、
mindspore.ops.NMSWithMask
mindspore.ops.RGBToHSV
mindspore.ops.ROIAlign
mindspore.ops.ResizeBicubic
mindspore.ops.SampleDistortedBoundingBoxV2
mindspore.ops.ScaleAndTranslate
@ -297,7 +295,6 @@ MindSpore中 `mindspore.ops.primitive` 接口与上一版本相比,新增、
mindspore.ops.LogicalAnd
mindspore.ops.LogicalNot
mindspore.ops.LogicalOr
mindspore.ops.Logit
mindspore.ops.Mod
mindspore.ops.Mul
mindspore.ops.MulNoNan

View File

@ -1,6 +0,0 @@
mindspore.Tensor.det
====================
.. py:method:: mindspore.Tensor.det()
:func:`mindspore.Tensor.matrix_determinant` 的别名。

View File

@ -3,4 +3,4 @@ mindspore.Tensor.i0
.. py:method:: mindspore.Tensor.i0()
:func:`mindspore.Tensor.bessel_i0` 的别名
详情请参考 :func:`mindspore.ops.i0`

View File

@ -44,7 +44,7 @@ mindspore.Profiler
异常:
- **TypeError** - op_name参数类型不正确。
- **TypeError** - device_id参数类型不正确。
- **RunTimeError** - 在Ascend上使用该接口获取性能数据。
- **RuntimeError** - 在Ascend上使用该接口获取性能数据。
.. py:method:: start()

View File

@ -80,7 +80,6 @@ mindspore.Tensor
mindspore.Tensor.cumprod
mindspore.Tensor.cumsum
mindspore.Tensor.deg2rad
mindspore.Tensor.det
mindspore.Tensor.diag
mindspore.Tensor.diagonal
mindspore.Tensor.div

View File

@ -5,7 +5,7 @@ mindspore.vmap
自动向量化Vectorizing Mapvmap是一种用于沿参数轴映射函数 `fn` 的高阶函数。
Vmap由Jax率先提出它消除了算子对batch维度的限制并提供更加方便、统一的运算符表达。同时用户还可以与 :func:`mindspore.ops.grad` 等其它功能模块组合使用,提高开发效率。
Vmap由Jax率先提出它消除了算子对batch维度的限制并提供更加方便、统一的运算符表达。同时用户还可以与 :func:`mindspore.grad` 等其它功能模块组合使用,提高开发效率。
此外,由于自动向量化并不在函数外部执行循环,而是将循环逻辑下沉至函数的各个原语操作中,以获得更好的性能。当与图算融合特性相结合时,执行效率将进一步提高。

View File

@ -533,7 +533,7 @@
在Cell和所有子Cell的输入上添加类型转换以使用特定的浮点类型运行。
如果 `dst_type``mindspore.dtype.float16` Cell的所有输入(包括作为常量的inputParameterTensor)都会被转换为float16。请参考 `mindspore.build_train_network` 的源代码中的用法。
如果 `dst_type``mindspore.dtype.float16` Cell的所有输入(包括作为常量的inputParameterTensor)都会被转换为float16。请参考 :func:`mindspore.amp.build_train_network` 的源代码中的用法。
.. note:: 多次调用将产生覆盖。

View File

@ -1,19 +0,0 @@
mindspore.ops.Logit
===================
.. py:class:: mindspore.ops.Logit(eps=-1.0)
逐元素计算张量的logit值。 `x` 中的元素被截断到范围[eps, 1-eps]内。
.. math::
\begin{align}
y_{i} & = \ln(\frac{z_{i}}{1 - z_{i}}) \\
z_{i} & = \begin{cases}
x_{i} & \text{if eps is None} \\
\text{eps} & \text{if } x_{i} \lt \text{eps} \\
x_{i} & \text{if } \text{eps} \leq x_{i} \leq 1 - \text{eps} \\
1 - \text{eps} & \text{if } x_{i} \gt 1 - \text{eps}
\end{cases}
\end{align}
更多参考详见 :func:`mindspore.ops.logit`

View File

@ -1,31 +0,0 @@
mindspore.ops.ResizeBicubic
============================
.. py:class:: mindspore.ops.ResizeBicubic(align_corners=False, half_pixel_centers=False)
使用双三次插值调整图像大小到指定的大小。
.. warning::
输出最大长度为1000000。
参数:
- **align_corners** (bool可选) - 如果为True则输入输出图像四个角像素的中心被对齐同时保留角像素处的值。默认值False。
- **half_pixel_centers** (bool可选) - 是否使用半像素中心对齐。如果设置为True那么 `align_corners` 应该设置为False。默认值False。
输入:
- **images** (Tensor) -输入图像为四维的Tensor其shape为 :math:`(batch, height, width, channels)` 支持的数据类型有int8、int16、int32、int64、float16、float32、float64、uint8和uint16。
- **size** (Tensor) - 必须为含有两个元素的一维的Tensor分别为new_height, new_width表示输出图像的高和宽。支持的数据类型为int32。
输出:
Tensor调整大小后的图像。shape为 :math:`(batch, new\_height, new\_width, channels)` 的四维Tensor数据类型为float32。
异常:
- **TypeError** - `images` 的数据类型不支持。
- **TypeError** - `size` 不是int32。
- **TypeError** - `align_corners` 不是bool。
- **TypeError** - `half_pixel_centers` 不是bool。
- **ValueError** - `images` 的维度不是4。
- **ValueError** - `size` 的维度不是1。
- **ValueError** - `size` 含有元素个数数不是2。
- **ValueError** - `size` 的元素不全是正数。
- **ValueError** - `align_corners``half_pixel_centers` 同时为True。

View File

@ -1,29 +0,0 @@
mindspore.ops.ResizeLinear1D
============================
.. py:class:: mindspore.ops.ResizeLinear1D(coordinate_transformation_mode="align_corners")
使用线性插值调整输入 `x` 为指定大小。
调整输入 `x` 的宽。
使用通用resize功能请参考 :func:`mindspore.ops.interpolate`
.. warning::
实验特性,接口可能发生变化。
参数:
- **coordinate_transformation_mode** (str) - 指定进行坐标变换的方式,默认值是"align_corners",还可选"half_pixel"和"asymmetric"。
输入:
- **x** (Tensor) - ResizeBilinear的输入三维的Tensor其shape为 :math:`(batch, channels, width)`。支持以下数据类型float16、float32、double。
- **size** (Tensor) - 指定 `x` 宽的新尺寸一维的Tensor其shape为 :math:`(1)` 数据类型为int64。
输出:
Tensor调整大小后的Tensor。shape为 :math:`(batch, channels, new\_width)` 的三维Tensor数据类型和输入是一致的。
异常:
- **TypeError** - `x` 的数据类型不支持。
- **TypeError** - `size` 不是int64的数据类型。
- **TypeError** - `coordinate_transformation_mode` 不是string。
- **TypeError** - `coordinate_transformation_mode` 不在支持的列表中。

View File

@ -15,8 +15,8 @@
- **optimizer** (Cell) - 用于更新网络权重的优化器。如果 `optimizer` 为None `network` 中需要进行反向传播和网络权重更新。默认值None。
- **metrics** (Union[dict, set]) - 用于模型评估的一组评价函数。例如:{'accuracy', 'recall'}。默认值None。
- **eval_network** (Cell) - 用于评估的神经网络。未定义情况下,`Model` 会使用 `network``loss_fn` 封装一个 `eval_network` 。默认值None。
- **eval_indexes** (list) - 在定义 `eval_network` 的情况下使用。如果 `eval_indexes` 为默认值None`Model` 会将 `eval_network` 的所有输出传给 `metrics` 。如果配置 `eval_indexes` ,必须包含三个元素,分别为损失值、预测值和标签在 `eval_network` 输出中的位置,此时,损失值将传给损失评价函数,预测值和标签将传给其他评价函数。推荐使用评价函数的 `mindspore.train.Metric.set_indexes` 代替 `eval_indexes` 。默认值None。
- **amp_level** (str) - `mindspore.build_train_network` 的可选参数 `level` `level` 为混合精度等级,该参数支持["O0", "O1", "O2", "O3", "auto"]。默认值:"O0"。
- **eval_indexes** (list) - 在定义 `eval_network` 的情况下使用。如果 `eval_indexes` 为默认值None`Model` 会将 `eval_network` 的所有输出传给 `metrics` 。如果配置 `eval_indexes` ,必须包含三个元素,分别为损失值、预测值和标签在 `eval_network` 输出中的位置,此时,损失值将传给损失评价函数,预测值和标签将传给其他评价函数。推荐使用评价函数的 :func:`mindspore.train.Metric.set_indexes` 代替 `eval_indexes` 。默认值None。
- **amp_level** (str) - `mindspore.amp.build_train_network` 的可选参数 `level` `level` 为混合精度等级,该参数支持["O0", "O1", "O2", "O3", "auto"]。默认值:"O0"。
- "O0": 不变化。
- "O1": 将白名单中的算子转为float16剩余算子保持float32。
@ -26,7 +26,7 @@
在GPU上建议使用"O2"在Ascend上建议使用"O3"。
通过 `kwargs` 设置 `keep_batchnorm_fp32` 可修改BatchNorm的精度策略 `keep_batchnorm_fp32` 必须为bool类型通过 `kwargs` 设置 `loss_scale_manager` 可修改损失缩放策略,`loss_scale_manager` 必须为 :class:`mindspore.amp.LossScaleManager` 的子类,
关于 `amp_level` 详见 `mindpore.build_train_network`
关于 `amp_level` 详见 `mindpore.amp.build_train_network`
- **boost_level** (str) - `mindspore.boost` 的可选参数为boost模式训练等级。支持["O0", "O1", "O2"]. 默认值:"O0"。

View File

@ -86,7 +86,6 @@
mindspore.Tensor.cumprod
mindspore.Tensor.cumsum
mindspore.Tensor.deg2rad
mindspore.Tensor.det
mindspore.Tensor.diag
mindspore.Tensor.diagonal
mindspore.Tensor.div

View File

@ -76,7 +76,6 @@ Neural Network
mindspore.ops.EmbeddingLookup
mindspore.ops.Padding
mindspore.ops.ResizeBilinear
mindspore.ops.ResizeLinear1D
mindspore.ops.ResizeNearestNeighbor
mindspore.ops.UpsampleNearest3D
mindspore.ops.UpsampleTrilinear3D
@ -209,7 +208,6 @@ Image Processing
mindspore.ops.NMSWithMask
mindspore.ops.RGBToHSV
mindspore.ops.ROIAlign
mindspore.ops.ResizeBicubic
mindspore.ops.SampleDistortedBoundingBoxV2
mindspore.ops.ScaleAndTranslate
@ -296,7 +294,6 @@ Element-wise Operator
mindspore.ops.LogicalAnd
mindspore.ops.LogicalNot
mindspore.ops.LogicalOr
mindspore.ops.Logit
mindspore.ops.Mod
mindspore.ops.Mul
mindspore.ops.MulNoNan

View File

@ -904,7 +904,7 @@ if platform.system().lower() != 'windows':
class CaseFold(TextTensorOperation):
"""
Apply case fold operation on UTF-8 string tensor, which is aggressive that can convert more characters into
lower case than :func:`str.lower` . For supported normalization forms, please refer to
lower case than :code:`str.lower` . For supported normalization forms, please refer to
`ICU_Normalizer2 <https://unicode-org.github.io/icu-docs/apidoc/released/icu4c/classicu_1_1Normalizer2.html>`_ .
Note:

View File

@ -1473,7 +1473,7 @@ class Cell(Cell_):
Add cast on all inputs of cell and child cells to run with certain float type.
If `dst_type` is `mindspore.dtype.float16`, all the inputs of Cell, including input, Parameter and Tensor, will
be cast to float16. Please refer to the usage in source code of :func:`mindspore.build_train_network`.
be cast to float16. Please refer to the usage in source code of :func:`mindspore.amp.build_train_network`.
Note:
Multiple calls will overwrite.

View File

@ -25,7 +25,7 @@ def vmap(fn, in_axes=0, out_axes=0):
Vmap is pioneered by Jax and it removes the restriction of batch dimension on the operator, and provides a
more convenient and unified operator expression. Moreover, it allows users to composite with other functional
modules such as :func:`mindspore.ops.grad`, to improve the development efficiency. In addition, the vectorizing
modules such as :func:`mindspore.grad`, to improve the development efficiency. In addition, the vectorizing
map does not execute loops outside the function, but sinks loops into the primitive operations of the function
for better performance. When combined with `Graph Kernel Fusion`, operational efficiency would be further improved.

View File

@ -3642,7 +3642,7 @@ class SparseSliceGrad(Primitive):
ValueError: If the number of `backprop_val_grad` is not corresponding to the number of `new_indices`.
ValueError: If the shape of `indices[1]` is not corresponding to `start[1]`.
ValueError: If the shape of `indices[1]` is not corresponding to `new_indices[1]`.
RunTimeError: If the `backprop_val_grad` is not all backpropagated, because `indices` or `new_indices`
RuntimeError: If the `backprop_val_grad` is not all backpropagated, because `indices` or `new_indices`
is not sorted.
Supported Platforms:

View File

@ -454,7 +454,7 @@ class Print(Primitive):
"""
Print the inputs to stdout.
Refer to :func:`mindspore.ops.print` for more detail.
Refer to :func:`mindspore.ops.print_` for more detail.
Supported Platforms:
``Ascend`` ``GPU`` ``CPU``

View File

@ -2421,8 +2421,8 @@ class SparseCountSparseOutput(Primitive):
ValueError: If number of values does not match first dimension of indices
ValueError: If number of dense_shape dimensions does not match second dimension of indices
ValueError: If num dim of dense_shape is < 1
RunTimeError: If number of weights is not equal to number of values
RunTimeError: If indexes are not in bounds of the dense shape
RuntimeError: If number of weights is not equal to number of values
RuntimeError: If indexes are not in bounds of the dense shape
Examples:
>>> from mindspore.ops.operations.sparse_ops import SparseCountSparseOutput

View File

@ -260,7 +260,7 @@ class Profiler:
Raises:
TypeError: If the op_name parameter type is incorrect.
TypeError: If the device_id parameter type is incorrect.
RunTimeError: If MindSpore runs on Ascend, this interface cannot be used.
RuntimeError: If MindSpore runs on Ascend, this interface cannot be used.
Supported Platforms:
``GPU`` ``CPU``

View File

@ -125,9 +125,9 @@ class Model:
three elements: the positions of loss value, predicted value and label in outputs of the
`eval_network`. In this case, the loss value will be passed to the `Loss` metric, the
predicted value and label will be passed to other metrics.
:func:`mindspore.train.metric.set_indexes` is recommended instead of `eval_indexes`.
:func:`mindspore.train.Metric.set_indexes` is recommended instead of `eval_indexes`.
Default: None.
amp_level (str): Option for argument `level` in :func:`mindspore.build_train_network`, level for mixed
amp_level (str): Option for argument `level` in :func:`mindspore.amp.build_train_network`, level for mixed
precision training. Supports ["O0", "O1", "O2", "O3", "auto"]. Default: "O0".
- "O0": Do not change.
@ -142,7 +142,7 @@ class Model:
The BatchNorm strategy can be changed by `keep_batchnorm_fp32` settings in `kwargs`. `keep_batchnorm_fp32`
must be a bool. The loss scale strategy can be changed by `loss_scale_manager` setting in `kwargs`.
`loss_scale_manager` should be a subclass of :class:`mindspore.amp.LossScaleManager`.
The more detailed explanation of `amp_level` setting can be found at `mindspore.build_train_network`.
The more detailed explanation of `amp_level` setting can be found at `mindspore.amp.build_train_network`.
boost_level (str): Option for argument `level` in `mindspore.boost`, level for boost mode
training. Supports ["O0", "O1", "O2"]. Default: "O0".