modify url link with api_updates
This commit is contained in:
parent
bcd1e1c643
commit
8c9a2b0a28
|
@ -3,7 +3,7 @@ mindspore.dataset.text.CaseFold
|
|||
|
||||
.. py:class:: mindspore.dataset.text.CaseFold()
|
||||
|
||||
将UTF-8编码字符串中的字符规范化为小写,相比 :func:`str.lower` 支持更多字符。
|
||||
将UTF-8编码字符串中的字符规范化为小写,相比 :code:`str.lower` 支持更多字符。
|
||||
|
||||
支持的输入规范化形式详见 `ICU_Normalizer2 <https://unicode-org.github.io/icu-docs/apidoc/released/icu4c/classicu_1_1Normalizer2.html>`_ 。
|
||||
|
||||
|
|
|
@ -76,7 +76,6 @@ MindSpore中 `mindspore.ops.primitive` 接口与上一版本相比,新增、
|
|||
mindspore.ops.Pad
|
||||
mindspore.ops.Padding
|
||||
mindspore.ops.ResizeBilinear
|
||||
mindspore.ops.ResizeLinear1D
|
||||
mindspore.ops.ResizeNearestNeighbor
|
||||
mindspore.ops.UpsampleNearest3D
|
||||
mindspore.ops.UpsampleTrilinear3D
|
||||
|
@ -210,7 +209,6 @@ MindSpore中 `mindspore.ops.primitive` 接口与上一版本相比,新增、
|
|||
mindspore.ops.NMSWithMask
|
||||
mindspore.ops.RGBToHSV
|
||||
mindspore.ops.ROIAlign
|
||||
mindspore.ops.ResizeBicubic
|
||||
mindspore.ops.SampleDistortedBoundingBoxV2
|
||||
mindspore.ops.ScaleAndTranslate
|
||||
|
||||
|
@ -297,7 +295,6 @@ MindSpore中 `mindspore.ops.primitive` 接口与上一版本相比,新增、
|
|||
mindspore.ops.LogicalAnd
|
||||
mindspore.ops.LogicalNot
|
||||
mindspore.ops.LogicalOr
|
||||
mindspore.ops.Logit
|
||||
mindspore.ops.Mod
|
||||
mindspore.ops.Mul
|
||||
mindspore.ops.MulNoNan
|
||||
|
|
|
@ -1,6 +0,0 @@
|
|||
mindspore.Tensor.det
|
||||
====================
|
||||
|
||||
.. py:method:: mindspore.Tensor.det()
|
||||
|
||||
:func:`mindspore.Tensor.matrix_determinant` 的别名。
|
|
@ -3,4 +3,4 @@ mindspore.Tensor.i0
|
|||
|
||||
.. py:method:: mindspore.Tensor.i0()
|
||||
|
||||
:func:`mindspore.Tensor.bessel_i0` 的别名。
|
||||
详情请参考 :func:`mindspore.ops.i0`。
|
||||
|
|
|
@ -44,7 +44,7 @@ mindspore.Profiler
|
|||
异常:
|
||||
- **TypeError** - op_name参数类型不正确。
|
||||
- **TypeError** - device_id参数类型不正确。
|
||||
- **RunTimeError** - 在Ascend上使用该接口获取性能数据。
|
||||
- **RuntimeError** - 在Ascend上使用该接口获取性能数据。
|
||||
|
||||
.. py:method:: start()
|
||||
|
||||
|
|
|
@ -80,7 +80,6 @@ mindspore.Tensor
|
|||
mindspore.Tensor.cumprod
|
||||
mindspore.Tensor.cumsum
|
||||
mindspore.Tensor.deg2rad
|
||||
mindspore.Tensor.det
|
||||
mindspore.Tensor.diag
|
||||
mindspore.Tensor.diagonal
|
||||
mindspore.Tensor.div
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.vmap
|
|||
|
||||
自动向量化(Vectorizing Map,vmap),是一种用于沿参数轴映射函数 `fn` 的高阶函数。
|
||||
|
||||
Vmap由Jax率先提出,它消除了算子对batch维度的限制,并提供更加方便、统一的运算符表达。同时,用户还可以与 :func:`mindspore.ops.grad` 等其它功能模块组合使用,提高开发效率。
|
||||
Vmap由Jax率先提出,它消除了算子对batch维度的限制,并提供更加方便、统一的运算符表达。同时,用户还可以与 :func:`mindspore.grad` 等其它功能模块组合使用,提高开发效率。
|
||||
|
||||
此外,由于自动向量化并不在函数外部执行循环,而是将循环逻辑下沉至函数的各个原语操作中,以获得更好的性能。当与图算融合特性相结合时,执行效率将进一步提高。
|
||||
|
||||
|
|
|
@ -533,7 +533,7 @@
|
|||
|
||||
在Cell和所有子Cell的输入上添加类型转换,以使用特定的浮点类型运行。
|
||||
|
||||
如果 `dst_type` 是 `mindspore.dtype.float16` ,Cell的所有输入(包括作为常量的input,Parameter,Tensor)都会被转换为float16。请参考 `mindspore.build_train_network` 的源代码中的用法。
|
||||
如果 `dst_type` 是 `mindspore.dtype.float16` ,Cell的所有输入(包括作为常量的input,Parameter,Tensor)都会被转换为float16。请参考 :func:`mindspore.amp.build_train_network` 的源代码中的用法。
|
||||
|
||||
.. note:: 多次调用将产生覆盖。
|
||||
|
||||
|
|
|
@ -1,19 +0,0 @@
|
|||
mindspore.ops.Logit
|
||||
===================
|
||||
|
||||
.. py:class:: mindspore.ops.Logit(eps=-1.0)
|
||||
|
||||
逐元素计算张量的logit值。 `x` 中的元素被截断到范围[eps, 1-eps]内。
|
||||
|
||||
.. math::
|
||||
\begin{align}
|
||||
y_{i} & = \ln(\frac{z_{i}}{1 - z_{i}}) \\
|
||||
z_{i} & = \begin{cases}
|
||||
x_{i} & \text{if eps is None} \\
|
||||
\text{eps} & \text{if } x_{i} \lt \text{eps} \\
|
||||
x_{i} & \text{if } \text{eps} \leq x_{i} \leq 1 - \text{eps} \\
|
||||
1 - \text{eps} & \text{if } x_{i} \gt 1 - \text{eps}
|
||||
\end{cases}
|
||||
\end{align}
|
||||
|
||||
更多参考详见 :func:`mindspore.ops.logit`。
|
|
@ -1,31 +0,0 @@
|
|||
mindspore.ops.ResizeBicubic
|
||||
============================
|
||||
|
||||
.. py:class:: mindspore.ops.ResizeBicubic(align_corners=False, half_pixel_centers=False)
|
||||
|
||||
使用双三次插值调整图像大小到指定的大小。
|
||||
|
||||
.. warning::
|
||||
输出最大长度为1000000。
|
||||
|
||||
参数:
|
||||
- **align_corners** (bool,可选) - 如果为True,则输入输出图像四个角像素的中心被对齐,同时保留角像素处的值。默认值:False。
|
||||
- **half_pixel_centers** (bool,可选) - 是否使用半像素中心对齐。如果设置为True,那么 `align_corners` 应该设置为False。默认值:False。
|
||||
|
||||
输入:
|
||||
- **images** (Tensor) -输入图像为四维的Tensor,其shape为 :math:`(batch, height, width, channels)` ,支持的数据类型有:int8、int16、int32、int64、float16、float32、float64、uint8和uint16。
|
||||
- **size** (Tensor) - 必须为含有两个元素的一维的Tensor,分别为new_height, new_width,表示输出图像的高和宽。支持的数据类型为int32。
|
||||
|
||||
输出:
|
||||
Tensor,调整大小后的图像。shape为 :math:`(batch, new\_height, new\_width, channels)` 的四维Tensor,数据类型为float32。
|
||||
|
||||
异常:
|
||||
- **TypeError** - `images` 的数据类型不支持。
|
||||
- **TypeError** - `size` 不是int32。
|
||||
- **TypeError** - `align_corners` 不是bool。
|
||||
- **TypeError** - `half_pixel_centers` 不是bool。
|
||||
- **ValueError** - `images` 的维度不是4。
|
||||
- **ValueError** - `size` 的维度不是1。
|
||||
- **ValueError** - `size` 含有元素个数数不是2。
|
||||
- **ValueError** - `size` 的元素不全是正数。
|
||||
- **ValueError** - `align_corners` 和 `half_pixel_centers` 同时为True。
|
|
@ -1,29 +0,0 @@
|
|||
mindspore.ops.ResizeLinear1D
|
||||
============================
|
||||
|
||||
.. py:class:: mindspore.ops.ResizeLinear1D(coordinate_transformation_mode="align_corners")
|
||||
|
||||
使用线性插值调整输入 `x` 为指定大小。
|
||||
|
||||
调整输入 `x` 的宽。
|
||||
|
||||
使用通用resize功能请参考 :func:`mindspore.ops.interpolate`。
|
||||
|
||||
.. warning::
|
||||
实验特性,接口可能发生变化。
|
||||
|
||||
参数:
|
||||
- **coordinate_transformation_mode** (str) - 指定进行坐标变换的方式,默认值是"align_corners",还可选"half_pixel"和"asymmetric"。
|
||||
|
||||
输入:
|
||||
- **x** (Tensor) - ResizeBilinear的输入,三维的Tensor,其shape为 :math:`(batch, channels, width)`。支持以下数据类型:float16、float32、double。
|
||||
- **size** (Tensor) - 指定 `x` 宽的新尺寸,一维的Tensor,其shape为 :math:`(1)` ,数据类型为int64。
|
||||
|
||||
输出:
|
||||
Tensor,调整大小后的Tensor。shape为 :math:`(batch, channels, new\_width)` 的三维Tensor,数据类型和输入是一致的。
|
||||
|
||||
异常:
|
||||
- **TypeError** - `x` 的数据类型不支持。
|
||||
- **TypeError** - `size` 不是int64的数据类型。
|
||||
- **TypeError** - `coordinate_transformation_mode` 不是string。
|
||||
- **TypeError** - `coordinate_transformation_mode` 不在支持的列表中。
|
|
@ -15,8 +15,8 @@
|
|||
- **optimizer** (Cell) - 用于更新网络权重的优化器。如果 `optimizer` 为None, `network` 中需要进行反向传播和网络权重更新。默认值:None。
|
||||
- **metrics** (Union[dict, set]) - 用于模型评估的一组评价函数。例如:{'accuracy', 'recall'}。默认值:None。
|
||||
- **eval_network** (Cell) - 用于评估的神经网络。未定义情况下,`Model` 会使用 `network` 和 `loss_fn` 封装一个 `eval_network` 。默认值:None。
|
||||
- **eval_indexes** (list) - 在定义 `eval_network` 的情况下使用。如果 `eval_indexes` 为默认值None,`Model` 会将 `eval_network` 的所有输出传给 `metrics` 。如果配置 `eval_indexes` ,必须包含三个元素,分别为损失值、预测值和标签在 `eval_network` 输出中的位置,此时,损失值将传给损失评价函数,预测值和标签将传给其他评价函数。推荐使用评价函数的 `mindspore.train.Metric.set_indexes` 代替 `eval_indexes` 。默认值:None。
|
||||
- **amp_level** (str) - `mindspore.build_train_network` 的可选参数 `level` , `level` 为混合精度等级,该参数支持["O0", "O1", "O2", "O3", "auto"]。默认值:"O0"。
|
||||
- **eval_indexes** (list) - 在定义 `eval_network` 的情况下使用。如果 `eval_indexes` 为默认值None,`Model` 会将 `eval_network` 的所有输出传给 `metrics` 。如果配置 `eval_indexes` ,必须包含三个元素,分别为损失值、预测值和标签在 `eval_network` 输出中的位置,此时,损失值将传给损失评价函数,预测值和标签将传给其他评价函数。推荐使用评价函数的 :func:`mindspore.train.Metric.set_indexes` 代替 `eval_indexes` 。默认值:None。
|
||||
- **amp_level** (str) - `mindspore.amp.build_train_network` 的可选参数 `level` , `level` 为混合精度等级,该参数支持["O0", "O1", "O2", "O3", "auto"]。默认值:"O0"。
|
||||
|
||||
- "O0": 不变化。
|
||||
- "O1": 将白名单中的算子转为float16,剩余算子保持float32。
|
||||
|
@ -26,7 +26,7 @@
|
|||
|
||||
在GPU上建议使用"O2",在Ascend上建议使用"O3"。
|
||||
通过 `kwargs` 设置 `keep_batchnorm_fp32` ,可修改BatchNorm的精度策略, `keep_batchnorm_fp32` 必须为bool类型;通过 `kwargs` 设置 `loss_scale_manager` 可修改损失缩放策略,`loss_scale_manager` 必须为 :class:`mindspore.amp.LossScaleManager` 的子类,
|
||||
关于 `amp_level` 详见 `mindpore.build_train_network` 。
|
||||
关于 `amp_level` 详见 `mindpore.amp.build_train_network` 。
|
||||
|
||||
- **boost_level** (str) - `mindspore.boost` 的可选参数,为boost模式训练等级。支持["O0", "O1", "O2"]. 默认值:"O0"。
|
||||
|
||||
|
|
|
@ -86,7 +86,6 @@
|
|||
mindspore.Tensor.cumprod
|
||||
mindspore.Tensor.cumsum
|
||||
mindspore.Tensor.deg2rad
|
||||
mindspore.Tensor.det
|
||||
mindspore.Tensor.diag
|
||||
mindspore.Tensor.diagonal
|
||||
mindspore.Tensor.div
|
||||
|
|
|
@ -76,7 +76,6 @@ Neural Network
|
|||
mindspore.ops.EmbeddingLookup
|
||||
mindspore.ops.Padding
|
||||
mindspore.ops.ResizeBilinear
|
||||
mindspore.ops.ResizeLinear1D
|
||||
mindspore.ops.ResizeNearestNeighbor
|
||||
mindspore.ops.UpsampleNearest3D
|
||||
mindspore.ops.UpsampleTrilinear3D
|
||||
|
@ -209,7 +208,6 @@ Image Processing
|
|||
mindspore.ops.NMSWithMask
|
||||
mindspore.ops.RGBToHSV
|
||||
mindspore.ops.ROIAlign
|
||||
mindspore.ops.ResizeBicubic
|
||||
mindspore.ops.SampleDistortedBoundingBoxV2
|
||||
mindspore.ops.ScaleAndTranslate
|
||||
|
||||
|
@ -296,7 +294,6 @@ Element-wise Operator
|
|||
mindspore.ops.LogicalAnd
|
||||
mindspore.ops.LogicalNot
|
||||
mindspore.ops.LogicalOr
|
||||
mindspore.ops.Logit
|
||||
mindspore.ops.Mod
|
||||
mindspore.ops.Mul
|
||||
mindspore.ops.MulNoNan
|
||||
|
|
|
@ -904,7 +904,7 @@ if platform.system().lower() != 'windows':
|
|||
class CaseFold(TextTensorOperation):
|
||||
"""
|
||||
Apply case fold operation on UTF-8 string tensor, which is aggressive that can convert more characters into
|
||||
lower case than :func:`str.lower` . For supported normalization forms, please refer to
|
||||
lower case than :code:`str.lower` . For supported normalization forms, please refer to
|
||||
`ICU_Normalizer2 <https://unicode-org.github.io/icu-docs/apidoc/released/icu4c/classicu_1_1Normalizer2.html>`_ .
|
||||
|
||||
Note:
|
||||
|
|
|
@ -1473,7 +1473,7 @@ class Cell(Cell_):
|
|||
Add cast on all inputs of cell and child cells to run with certain float type.
|
||||
|
||||
If `dst_type` is `mindspore.dtype.float16`, all the inputs of Cell, including input, Parameter and Tensor, will
|
||||
be cast to float16. Please refer to the usage in source code of :func:`mindspore.build_train_network`.
|
||||
be cast to float16. Please refer to the usage in source code of :func:`mindspore.amp.build_train_network`.
|
||||
|
||||
Note:
|
||||
Multiple calls will overwrite.
|
||||
|
|
|
@ -25,7 +25,7 @@ def vmap(fn, in_axes=0, out_axes=0):
|
|||
|
||||
Vmap is pioneered by Jax and it removes the restriction of batch dimension on the operator, and provides a
|
||||
more convenient and unified operator expression. Moreover, it allows users to composite with other functional
|
||||
modules such as :func:`mindspore.ops.grad`, to improve the development efficiency. In addition, the vectorizing
|
||||
modules such as :func:`mindspore.grad`, to improve the development efficiency. In addition, the vectorizing
|
||||
map does not execute loops outside the function, but sinks loops into the primitive operations of the function
|
||||
for better performance. When combined with `Graph Kernel Fusion`, operational efficiency would be further improved.
|
||||
|
||||
|
|
|
@ -3642,7 +3642,7 @@ class SparseSliceGrad(Primitive):
|
|||
ValueError: If the number of `backprop_val_grad` is not corresponding to the number of `new_indices`.
|
||||
ValueError: If the shape of `indices[1]` is not corresponding to `start[1]`.
|
||||
ValueError: If the shape of `indices[1]` is not corresponding to `new_indices[1]`.
|
||||
RunTimeError: If the `backprop_val_grad` is not all backpropagated, because `indices` or `new_indices`
|
||||
RuntimeError: If the `backprop_val_grad` is not all backpropagated, because `indices` or `new_indices`
|
||||
is not sorted.
|
||||
|
||||
Supported Platforms:
|
||||
|
|
|
@ -454,7 +454,7 @@ class Print(Primitive):
|
|||
"""
|
||||
Print the inputs to stdout.
|
||||
|
||||
Refer to :func:`mindspore.ops.print` for more detail.
|
||||
Refer to :func:`mindspore.ops.print_` for more detail.
|
||||
|
||||
Supported Platforms:
|
||||
``Ascend`` ``GPU`` ``CPU``
|
||||
|
|
|
@ -2421,8 +2421,8 @@ class SparseCountSparseOutput(Primitive):
|
|||
ValueError: If number of values does not match first dimension of indices
|
||||
ValueError: If number of dense_shape dimensions does not match second dimension of indices
|
||||
ValueError: If num dim of dense_shape is < 1
|
||||
RunTimeError: If number of weights is not equal to number of values
|
||||
RunTimeError: If indexes are not in bounds of the dense shape
|
||||
RuntimeError: If number of weights is not equal to number of values
|
||||
RuntimeError: If indexes are not in bounds of the dense shape
|
||||
|
||||
Examples:
|
||||
>>> from mindspore.ops.operations.sparse_ops import SparseCountSparseOutput
|
||||
|
|
|
@ -260,7 +260,7 @@ class Profiler:
|
|||
Raises:
|
||||
TypeError: If the op_name parameter type is incorrect.
|
||||
TypeError: If the device_id parameter type is incorrect.
|
||||
RunTimeError: If MindSpore runs on Ascend, this interface cannot be used.
|
||||
RuntimeError: If MindSpore runs on Ascend, this interface cannot be used.
|
||||
|
||||
Supported Platforms:
|
||||
``GPU`` ``CPU``
|
||||
|
|
|
@ -125,9 +125,9 @@ class Model:
|
|||
three elements: the positions of loss value, predicted value and label in outputs of the
|
||||
`eval_network`. In this case, the loss value will be passed to the `Loss` metric, the
|
||||
predicted value and label will be passed to other metrics.
|
||||
:func:`mindspore.train.metric.set_indexes` is recommended instead of `eval_indexes`.
|
||||
:func:`mindspore.train.Metric.set_indexes` is recommended instead of `eval_indexes`.
|
||||
Default: None.
|
||||
amp_level (str): Option for argument `level` in :func:`mindspore.build_train_network`, level for mixed
|
||||
amp_level (str): Option for argument `level` in :func:`mindspore.amp.build_train_network`, level for mixed
|
||||
precision training. Supports ["O0", "O1", "O2", "O3", "auto"]. Default: "O0".
|
||||
|
||||
- "O0": Do not change.
|
||||
|
@ -142,7 +142,7 @@ class Model:
|
|||
The BatchNorm strategy can be changed by `keep_batchnorm_fp32` settings in `kwargs`. `keep_batchnorm_fp32`
|
||||
must be a bool. The loss scale strategy can be changed by `loss_scale_manager` setting in `kwargs`.
|
||||
`loss_scale_manager` should be a subclass of :class:`mindspore.amp.LossScaleManager`.
|
||||
The more detailed explanation of `amp_level` setting can be found at `mindspore.build_train_network`.
|
||||
The more detailed explanation of `amp_level` setting can be found at `mindspore.amp.build_train_network`.
|
||||
|
||||
boost_level (str): Option for argument `level` in `mindspore.boost`, level for boost mode
|
||||
training. Supports ["O0", "O1", "O2"]. Default: "O0".
|
||||
|
|
Loading…
Reference in New Issue