!47394 modify format

Merge pull request !47394 from 俞涵/code_docs_2.0.0al
This commit is contained in:
i-robot 2023-01-03 01:52:30 +00:00 committed by Gitee
commit 80622935f7
No known key found for this signature in database
GPG Key ID: 173E9B9CA92EEF8F
39 changed files with 37 additions and 557 deletions

View File

@ -7,7 +7,7 @@ mindspore.Tensor.searchsorted
参数:
- **v** (Union[int, float, bool, list, tuple, Tensor]) - 要插入元素的值。
- **side** (str, 可选) - 如果参数值为'left',则给出找到的第一个合适位置的索引。如果参数值为'right'则返回最后一个这样的索引。如果没有合适的索引则返回0或N其中N是Tensor的长度。默认值'left'。
- **side** (str, 可选) - 如果参数值为 'left',则给出找到的第一个合适位置的索引。如果参数值为 'right'则返回最后一个这样的索引。如果没有合适的索引则返回0或N其中N是Tensor的长度。默认值 'left'。
- **sorter** (Union[int, float, bool, list, tuple, Tensor]) - 整数索引的可选一维数组将Tensor按升序排序。它们通常是NumPy argsort方法的结果。默认值None。
返回:

View File

@ -3,18 +3,4 @@ mindspore.Tensor.sigmoid
.. py:method:: mindspore.Tensor.sigmoid
Sigmoid激活函数按元素计算Sigmoid激活函数。
Sigmoid函数定义为
.. math::
\text{sigmoid}(x_i) = \frac{1}{1 + \exp(-x_i)},
其中 :math:`x_i` 是原Tensor的元素。
返回:
Tensor数据类型和shape与原Tensor的相同。
异常:
- **TypeError** - 原Tensor的数据类型不是float16、float32、float64、complex64或complex128。
详情请参考 :func:`mindspore.ops.sigmoid`

View File

@ -18,4 +18,4 @@ mindspore.Tensor.take
Tensor索引的结果。
异常:
- **ValueError** - `axis` 超出范围,或 `mode` 被设置为'raise'、'wrap'和'clip'以外的值。
- **ValueError** - `axis` 超出范围,或 `mode` 被设置为 'raise'、 'wrap'和 'clip'以外的值。

View File

@ -32,7 +32,7 @@
克隆参数。
参数:
- **init** (Union[Tensor, str, numbers.Number]) - 初始化参数的形状和数据类型。如果 `init``Tensor``numbers.Number` ,则克隆一个具有相同数值、形状和数据类型的新参数。如果 `init``str` ,则 `init` 将继承 `Initializer` 模块中对应的同名的类。例如,如果 `init` 是'same',则克隆一个具有相同数据、形状和数据类型的新参数。默认值:'same'。
- **init** (Union[Tensor, str, numbers.Number]) - 初始化参数的形状和数据类型。如果 `init``Tensor``numbers.Number` ,则克隆一个具有相同数值、形状和数据类型的新参数。如果 `init``str` ,则 `init` 将继承 `Initializer` 模块中对应的同名的类。例如,如果 `init` 'same',则克隆一个具有相同数据、形状和数据类型的新参数。默认值: 'same'。
返回:
Parameter返回克隆的新参数。

View File

@ -14,12 +14,12 @@ mindspore.ParameterTuple
参数:
- **prefix** (str) - Parameter的namespace此前缀将会被添加到Parametertuple中的Parameter的name属性中。
- **init** (Union[Tensor, str, numbers.Number]) - 对Parametertuple中Parameter的shape和类型进行克隆并根据传入的 `init` 设置数值。默认值:'same'。
- **init** (Union[Tensor, str, numbers.Number]) - 对Parametertuple中Parameter的shape和类型进行克隆并根据传入的 `init` 设置数值。默认值: 'same'。
- 如果 `init``Tensor` 则新参数的数值与该Tensor相同。
- 如果 `init``numbers.Number` ,则设置新参数的数值为该值。
- 如果 `init``str` ,则按照 `Initializer` 模块中对应的同名的初始化方法进行数值设定。
- 如果 `init` 是'same'则新参数的数值与原Parameter相同。
- 如果 `init` 'same'则新参数的数值与原Parameter相同。
返回:
新的参数元组。

View File

@ -29,8 +29,8 @@ mindspore.export
- **enc_key** (str) - 用于加密的字节类型密钥有效长度为16、24或者32。
- **enc_mode** (Union[str, function]) - 指定加密模式,当设置 `enc_key` 时启用。
- 对于'AIR'和'ONNX'格式的模型,当前仅支持自定义加密导出。
- 对于'MINDIR'格式的模型,支持的加密选项有:'AES-GCM''AES-CBC''SM4-CBC'和用户自定义加密算法。默认值:"AES-GCM"。
- 对于 'AIR'和 'ONNX'格式的模型,当前仅支持自定义加密导出。
- 对于 'MINDIR'格式的模型,支持的加密选项有: 'AES-GCM' 'AES-CBC' 'SM4-CBC'和用户自定义加密算法。默认值:"AES-GCM"。
- 关于使用自定义加密导出的详情,请查看 `教程 <https://www.mindspore.cn/mindarmour/docs/zh-CN/r2.0.0-alpha/model_encrypt_protection.html>`_
- **dataset** (Dataset) - 指定数据集的预处理方法用于将数据集的预处理导入MindIR。

View File

@ -12,7 +12,7 @@ mindspore.load
- **kwargs** (dict) - 配置项字典。
- **dec_key** (bytes) - 用于解密的字节类型密钥。有效长度为 16、24 或 32。
- **dec_mode** (Union[str, function]) - 指定解密模式设置dec_key时生效。可选项'AES-GCM' | 'SM4-CBC' | 'AES-CBC' 自定义解密函数。默认值:"AES-GCM"。
- **dec_mode** (Union[str, function]) - 指定解密模式设置dec_key时生效。可选项 'AES-GCM' | 'SM4-CBC' | 'AES-CBC' 自定义解密函数。默认值:"AES-GCM"。
- 关于使用自定义解密加载的详情,请查看 `教程 <https://www.mindspore.cn/mindarmour/docs/zh-CN/r2.0.0-alpha/model_encrypt_protection.html>`_

View File

@ -8,7 +8,7 @@ mindspore.obfuscate_model
参数:
- **obf_config** (dict) - 模型混淆配置选项字典。
- **type** (str) - 混淆类型,目前支持动态混淆,即'dynamic'。
- **type** (str) - 混淆类型,目前支持动态混淆,即 'dynamic'。
- **original_model_path** (str) - 待混淆的MindIR模型地址。如果该模型是加密文件的则需要在 `kwargs` 中传入 `enc_key``enc_mode`
- **save_model_path** (str) - 混淆模型的保存地址。
- **model_inputs** (list[Tensor]) - 模型的推理输入Tensor的值可以是随机的和使用 :func:`mindspore.export` 接口类似。
@ -19,7 +19,7 @@ mindspore.obfuscate_model
- **kwargs** (dict) - 配置选项字典。
- **enc_key** (bytes) - 用于加密的字节类型密钥有效长度为16、24或者32。
- **enc_mode** (str) - 指定加密模式,当设置 `enc_key` 时启用。支持的加密选项有:'AES-GCM''AES-CBC', 'SM4-CBC'。默认值:"AES-GCM"。
- **enc_mode** (str) - 指定加密模式,当设置 `enc_key` 时启用。支持的加密选项有: 'AES-GCM' 'AES-CBC', 'SM4-CBC'。默认值:"AES-GCM"。
异常:
- **TypeError** - `obf_config` 不是字典类型。

View File

@ -80,7 +80,7 @@ mindspore.set_context
参数:
- **device_id** (int) - 表示目标设备的ID其值必须在[0, device_num_per_host-1]范围中,且 `device_num_per_host` 的值不应超过4096。默认值0。
- **device_target** (str) - 表示待运行的目标设备,支持'Ascend'、'GPU'和'CPU'。如果未设置此参数则使用MindSpore包对应的后端设备。
- **device_target** (str) - 表示待运行的目标设备,支持 'Ascend'、 'GPU'和 'CPU'。如果未设置此参数则使用MindSpore包对应的后端设备。
- **max_device_memory** (str) - 设置设备可用的最大内存。格式为"xxGB"。默认值1024GB。实际使用的内存大小是设备的可用内存和 `max_device_memory` 值中的最小值。
- **variable_memory_max_size** (str) - 此参数已弃用,将被删除。请使用 `max_device_memory`
- **mempool_block_size** (str) - 设置设备内存池的块大小。格式为"xxGB"。默认值1GB。最小值是1GB。实际使用的内存池块大小是设备的可用内存和 `mempool_block_size` 值中的最小值。
@ -148,7 +148,7 @@ mindspore.set_context
- O0: 执行性能优先,关闭 SOMAS (Safe Optimized Memory Allocation Solver)。
- O1: 内存性能优先,使能 SOMAS。
- **memory_offload** (str) - 是否开启Offload功能在内存不足场景下将空闲数据临时拷贝至Host侧内存。其值必须在['ON', 'OFF']范围中,默认值为'OFF'。
- **memory_offload** (str) - 是否开启Offload功能在内存不足场景下将空闲数据临时拷贝至Host侧内存。其值必须在['ON', 'OFF']范围中,默认值为 'OFF'。
- ON开启memory offload功能。在Ascend硬件平台未设置环境变量“GRAPH_OP_RUN=1”时本参数不生效设置memory_optimize_level='O1'时本参数不生效。
- OFF关闭memory offload功能。

View File

@ -1,19 +0,0 @@
mindspore.nn.CentralCrop
=========================
.. py:class:: mindspore.nn.CentralCrop(central_fraction)
根据指定比例裁剪出图像的中心区域。
参数:
- **central_fraction** (float) - 裁剪比例必须是float并且在范围(0.0, 1.0]内。
输入:
- **image** (Tensor) - shape为 :math:`(C, H, W)` 的三维Tensor或shape为 :math:`(N,C,H,W)` 的四维Tensor。
输出:
Tensor基于输入的三维或四维的float Tensor。
异常:
- **TypeError** - `central_fraction` 不是float。
- **ValueError** - `central_fraction` 不在范围(0.0, 1.0]内。

View File

@ -1,28 +0,0 @@
mindspore.nn.ClipByNorm
========================
.. py:class:: mindspore.nn.ClipByNorm(axis=None)
对输入Tensor的值进行裁剪使用 :math:`L_2` 范数控制梯度。
如果输入Tensor的 :math:`L_2` 范数不大于输入 `clip_norm` ,则此层的输出保持不变。
否则Tensor将标准化为
.. math::
\text{output}(X) = \frac{\text{clip_norm} * X}{L_2(X)},
其中 :math:`L_2(X)`:math:`X`:math:`L_2` 范数。
参数:
- **axis** (Union[None, int, tuple(int)]) - 指定在哪个维度上计算 :math:`L_2` 范数。如果为None则计算所有维度。默认值None。
输入:
- **x** (Tensor) - 输入n维的Tensor数据类型为float32或float16。
- **clip_norm** (Tensor) - shape为 :math:`()`:math:`(1)` 的Tensor。或者其shape可以广播到 `x` 的shape。
输出:
Tensor裁剪后的Tensor与输入 `x` 的shape相同数据类型为float32。
异常:
- **TypeError** - `axis` 不是None、int、或tuple。
- **TypeError** - `x` 的数据类型既不是float16也不是float32。

View File

@ -1,25 +0,0 @@
mindspore.nn.ImageGradients
============================
.. py:class:: mindspore.nn.ImageGradients
计算每个颜色通道的图像渐变返回为两个Tensor分别表示高和宽方向上的变化率。
假设图像shape为 :math:`h*w` ,则沿高和宽的梯度分别为 :math:`dy`:math:`dx`
.. math::
dy[i] = \begin{cases} image[i+1, :]-image[i, :], &if\ 0<=i<h-1 \cr
0, &if\ i==h-1\end{cases}
dx[i] = \begin{cases} image[:, i+1]-image[:, i], &if\ 0<=i<w-1 \cr
0, &if\ i==w-1\end{cases}
输入:
- **images** (Tensor) - 输入图像数据,格式为'NCHW'。
输出:
- **dy** (Tensor) - 垂直方向的图像梯度数据类型和shape与输入相同。
- **dx** (Tensor) - 水平方向的图像梯度数据类型和shape与输入相同。
异常:
- **ValueError** - `images` 的shape长度不等于4。

View File

@ -1,6 +0,0 @@
mindspore.nn.Jvp
=================
.. py:class:: mindspore.nn.Jvp(fn)
Jvp接口即将被弃用请使用 :func:`mindspore.ops.jvp` 替代。

View File

@ -1,30 +0,0 @@
mindspore.nn.L1Regularizer
===========================
.. py:class:: mindspore.nn.L1Regularizer(scale)
对权重计算L1正则化。
L1正则化可导致稀疏权重。
.. math::
\text{loss}=\lambda * \text{reduce_sum}(\text{abs}(\omega))
:math:`\lambda` 代表 `scale`
.. note::
正则化因子应为大于0。
参数:
- **scale** (int, float) - L1正则化因子其值大于0。
输入:
- **weights** (Tensor) - L1Regularizer的输入任意维度的Tensor数据类型为float16或float32。
输出:
Tensor其shape为()默认数据类型为mindspore.float32如果权重的数据类型精度更高则以权重的数据类型作为输出数据类型。
异常:
- **TypeError** - `scale` 既不是int也不是float。
- **ValueError** - `scale` 不大于0。
- **ValueError** - `scale` 是math.inf或math.nan。

View File

@ -1,38 +0,0 @@
mindspore.nn.MSSSIM
====================
.. py:class:: mindspore.nn.MSSSIM(max_val=1.0, power_factors=(0.0448, 0.2856, 0.3001, 0.2363, 0.1333), filter_size=11, filter_sigma=1.5, k1=0.01, k2=0.03)
多尺度计算两个图像之间的结构相似性SSIM
基于Zhou Wang、Eero P.Simoncelli和Alan C.Bovik在2004年于Signals, Systems and Computers上发表的 `Multiscale structural similarity for image quality assessment <https://ieeexplore.ieee.org/document/1292216>`_
.. math::
l(x,y)&=\frac{2\mu_x\mu_y+C_1}{\mu_x^2+\mu_y^2+C_1}, C_1=(K_1L)^2.\\
c(x,y)&=\frac{2\sigma_x\sigma_y+C_2}{\sigma_x^2+\sigma_y^2+C_2}, C_2=(K_2L)^2.\\
s(x,y)&=\frac{\sigma_{xy}+C_3}{\sigma_x\sigma_y+C_3}, C_3=C_2/2.\\
MSSSIM(x,y)&=l^\alpha_M*{\prod_{1\leq j\leq M} (c^\beta_j*s^\gamma_j)}.
参数:
- **max_val** (Union[int, float]) - 像素值的动态范围即最大值和最小值之间的差值。8bit灰度图像素为255。默认值1.0。
- **power_factors** (Union[tuple, list]) - 权重列表。默认值:(0.0448、0.2856、0.3001、0.2363、0.1333)。此处使用的默认值是由Wang等人在论文中提出。
- **filter_size** (int) - 高斯滤波器的尺寸大小。默认值11。
- **filter_sigma** (float) - 高斯滤波器的标准差。默认值1.5。
- **k1** (float) - 在亮度比较函数中,此常量用于生成 :math:`C_1` 。默认值0.01。
- **k2** (float) - 在对比度比较函数中,此常量用于生成 :math:`C_2` 。默认值0.03。
输入:
- **img1** (Tensor) - 格式为'NCHW'的第一批图像。shape和数据类型必须与 `img2` 相同。
- **img2** (Tensor) - 格式为'NCHW'的第二批图像。shape和数据类型必须与 `img1` 相同。
输出:
Tensor输入的结构相似性。取值在[0, 1]范围内。它是一个shape为N的一维Tensor其中N是 `img1` 的batch size。
异常:
- **TypeError** - 如果 `max_val` 既不是int也不是float。
- **TypeError** - 如果 `power_factors` 既不是tuple也不是list。
- **TypeError** - 如果 `k1``k2``filter_sigma` 不是float。
- **TypeError** - 如果 `filter_size` 不是int。
- **ValueError** - 如果 `max_val``filter_sigma` 小于或等于0。
- **ValueError** - 如果 `filter_size` 小于0。
- **ValueError** - 如果 `img1``img2` 的shape长度不等于4。

View File

@ -1,17 +0,0 @@
mindspore.nn.MatrixDiag
========================
.. py:class:: mindspore.nn.MatrixDiag
根据对角线值返回一批对角矩阵。
假设 `x`:math:`k` 个维度 :math:`[I, J, K, ..., N]` ,则输出秩为 :math:`k+1` 且维度为 :math:`[I, J, K, ..., N, N]` 的Tensor其中 :math:`output[i, j, k, ..., m, n] = 1\{m=n\} * x[i, j, k, ..., n]`
输入:
- **x** (Tensor) - 输入任意维度的对角线值。支持的数据类型包括float32、float16、int32、int8和uint8。
输出:
Tensorshape与输入 `x` 相同。Shape必须为 :math:`x.shape + (x.shape[-1], )`
异常:
- **TypeError** - `x` 的数据类型不是float32、float16、int32、int8或uint8。

View File

@ -1,17 +0,0 @@
mindspore.nn.MatrixDiagPart
============================
.. py:class:: mindspore.nn.MatrixDiagPart
返回批对角矩阵的对角线部分。
假设 `x`:math:`k` 个维度 :math:`[I, J, K, ..., M, N]` ,则输出秩为 :math:`k-1` 且维度为 :math:`[I, J, K, ..., min(M, N)]` 的Tensor其中 :math:`output[i, j, k, ..., n] = x[i, j, k, ..., n, n]`
输入:
- **x** (Tensor) - 输入具有批对角的Tensor。支持的数据类型包括float32、float16、int32、int8和uint8。
输出:
Tensorshape与输入 `x` 相同。shape必须为 :math:`x.shape[:-2]+[min(x.shape[-2:])]`
异常:
- **TypeError** - `x` 的数据类型不是float32、float16、int32、int8或uint8。

View File

@ -1,28 +0,0 @@
mindspore.nn.MatrixSetDiag
===========================
.. py:class:: mindspore.nn.MatrixSetDiag
将输入的对角矩阵的对角线值置换为输入的对角线值。
假设 `x`:math:`k+1` 个维度 :math:`[I,J,K,...,M,N]` `diagonal`:math:`k` 个维度 :math:`[I, J, K, ..., min(M, N)]` ,则输出秩为 :math:`k+1` ,维度为 :math:`[I, J, K, ..., M, N]` 的Tensor其中
.. math::
output[i, j, k, ..., m, n] = diagnoal[i, j, k, ..., n]\ for\ m == n
.. math::
output[i, j, k, ..., m, n] = x[i, j, k, ..., m, n]\ for\ m != n
输入:
- **x** (Tensor) - 输入的对角矩阵。秩为k+1k大于等于1。支持如下数据类型float32、float16、int32、int8和uint8。
- **diagonal** (Tensor) - 输入的对角线值。必须与输入 `x` 的shape相同。秩为kk大于等于1。
输出:
Tensorshape和数据类型与输入 `x` 相同。
异常:
- **TypeError** - `x``diagonal` 的数据类型不是float32、float16、int32、int8或uint8。
- **ValueError** - `x` 的shape长度小于2。
- **ValueError** - :math:`x\_shape[-2] < x\_shape[-1]`:math:`x\_shape[:-1] != diagonal\_shape`
- **ValueError** - :math:`x\_shape[-2] >= x\_shape[-1]`:math:`x\_shape[:-2] + x\_shape[-1:] != diagonal\_shape`

View File

@ -1,23 +0,0 @@
mindspore.nn.Norm
==================
.. py:class:: mindspore.nn.Norm(axis=(), keep_dims=False)
计算向量的范数,目前包括欧几里得范数,即 :math:`L_2`-norm。
.. math::
norm(x) = \sqrt{\sum_{i=1}^{n} (x_i^2)}
参数:
- **axis** (Union[tuple, int]) - 指定计算向量范数的轴。默认值:()。
- **keep_dims** (bool) - 如果为True`axis` 中指定轴的维度大小为1。否则`axis` 的维度将从输出shape中删除。默认值False。
输入:
- **x** (Tensor) - 输入任意维度Tensor不为空。数据类型应为float16或float32。
输出:
Tensor如果'keep_dims'为True则将保留'axis'指定的维度且为1否则将移除'axis'中指定的维度。数据类型与 `x` 相同。
异常:
- **TypeError** - `axis` 既不是int也不是tuple。
- **TypeError** - `keep_dims` 不是bool。

View File

@ -1,50 +0,0 @@
mindspore.nn.OneHot
====================
.. py:class:: mindspore.nn.OneHot(axis=-1, depth=1, on_value=1.0, off_value=0.0, dtype=mstype.float32)
对输入进行one-hot编码并返回。
输入的 `indices` 表示的位置取值为on_value其他所有位置取值为off_value。
.. note::
如果indices是n阶Tensor那么返回的one-hot Tensor则为n+1阶Tensor。新增 `axis` 维度。
如果 `indices` 是Scalar则输出shape将是长度为 `depth` 的向量。
如果 `indices` 是长度为 `features` 的向量则输出shape为
.. code-block::
features * depth if axis == -1
depth * features if axis == 0
如果 `indices` 是shape为 `[batch, features]` 的矩阵则输出shape为
.. code-block::
batch * features * depth if axis == -1
batch * depth * features if axis == 1
depth * batch * features if axis == 0
参数:
- **axis** (int) - 指定第几阶为 `depth` 维one-hot向量如果轴为-1`features * depth` 如果轴为0`depth * features` 。默认值:-1。
- **depth** (int) - 定义one-hot向量的深度。默认值1。
- **on_value** (float) - one-hot值`indices[j] = i`填充output[i][j]的取值。默认值1.0。
- **off_value** (float) - 非one-hot值`indices[j] != i`填充output[i][j]的取值。默认值0.0。
- **dtype** (:class:`mindspore.dtype`) - 是'on_value'和'off_value'的数据类型而不是输入的数据类型。默认值mindspore.float32。
输入:
- **indices** (Tensor) - 输入索引任意维度的Tensor数据类型为int32或int64。
输出:
Tensor输出Tensor数据类型 `dtype` 的one-hot Tensor维度为 `axis` 扩展到 `depth`并填充on_value和off_value。`Outputs` 的维度等于 `indices` 的维度加1。
异常:
- **TypeError** - `axis``depth` 不是int。
- **TypeError** - `indices` 的dtype既不是int32也不是int64。
- **ValueError** - 如果 `axis` 不在范围[-1, len(indices_shape)]内。
- **ValueError** - `depth` 小于0。

View File

@ -1,27 +0,0 @@
mindspore.nn.PSNR
==================
.. py:class:: mindspore.nn.PSNR(max_val=1.0)
在批处理中计算两个图像的峰值信噪比PSNR
它为批处理中的每个图像生成PSNR值。假设输入为 :math:`I`:math:`K` 且shape都为 :math:`h*w`:math:`MAX` 表示像素值的动态范围。
.. math::
MSE&=\frac{1}{hw}\sum\limits_{i=0}^{h-1}\sum\limits_{j=0}^{w-1}[I(i,j)-K(i,j)]^2\\
PSNR&=10*log_{10}(\frac{MAX^2}{MSE})
参数:
- **max_val** (Union[int, float]) - 像素的动态范围8位灰度图像为255。该值必须大于0。默认值1.0。
输入:
- **img1** (Tensor) - 格式为'NCHW'的输入图像。shape和数据类型必须与 `img2` 相同。
- **img2** (Tensor) - 格式为'NCHW'的输入图像。shape和数据类型必须与 `img1` 相同。
输出:
Tensor使用数据类型mindspore.float32。shape为N的一维Tensor其中N是 `img1` 的batch size。
异常:
- **TypeError** - `max_val` 既不是int也不是float。
- **ValueError** - `max_val` 小于或等于0。
- **ValueError** - `img1``img2` 的shape长度不等于4。

View File

@ -1,19 +0,0 @@
mindspore.nn.Range
===================
.. py:class:: mindspore.nn.Range(start, limit=None, delta=1)
根据指定步长在范围[start, limit)中创建数字序列。
输出的数据长度为 :math:`\left \lfloor \frac{limit-start}{delta} \right \rfloor + 1` 并且 `delta` 是Tensor中两个值之间的间隔。
.. math::
out_{i+1} = out_{i} + delta
参数:
- **start** (Union[int, float]) - 如果 `limit` 为None则该值在范围内充当结束0为起始。否则 `start` 将充当范围中的起始。
- **limit** (Union[int, float]) - 序列的上限。如果为None则默认为 `start` 的值同时将范围内的0作为起始。它不能等于 `start` 。默认值None。
- **delta** (Union[int, float]) - 指定步长。不能等于零。默认值1。
输出:
Tensor如果 `start``limit``delta` 的数据类型都是int则数据类型为int。否则数据类型为float。

View File

@ -1,26 +0,0 @@
mindspore.nn.Roll
=================
.. py:class:: mindspore.nn.Roll(shift, axis)
沿轴移动Tensor的元素。
元素沿着 `axis` 维度按照 `shift` 偏移(朝着较大的索引)正向移动。 `shift` 为负值则使元素向相反方向移动。移动最后位置的元素将绕到第一个位置,反之亦然。可以指定沿多个轴的多个偏移。
参数:
- **shift** (Union[list(int), tuple(int), int]) - 指定元素移动方式,如果为整数,则元素沿指定维度正向移动(朝向较大的索引)的位置数。负偏移将向相反的方向滚动元素。
- **axis** (Union[list(int), tuple(int), int]) - 指定需移动维度的轴。
输入:
- **input_x** (Tensor) - 输入Tensor。
输出:
Tensorshape和数据类型与输入的 `input_x` 相同。
异常:
- **TypeError** - `shift` 不是int、tuple或list。
- **TypeError** - `axis` 不是int、tuple或list。
- **TypeError** - `shift` 的元素不是int。
- **TypeError** - `axis` 的元素不是int。
- **ValueError** - `axis` 超出[-len(input_x.shape), len(input_x.shape))范围。
- **ValueError** - `shift` 的shape长度不等于 `axis` 的shape长度。

View File

@ -1,35 +0,0 @@
mindspore.nn.SSIM
==================
.. py:class:: mindspore.nn.SSIM(max_val=1.0, filter_size=11, filter_sigma=1.5, k1=0.01, k2=0.03)
计算两个图像之间的结构相似性SSIM
SSIM的实现请参考Wang, Z., Bovik, A. C., Sheikh, H. R., & Simoncelli, E. P. (2004) `Image quality assessment: from error visibility to structural similarity <https://ieeexplore.ieee.org/document/1284395>`_ 。SSIM是用来衡量两张图片相似性的指标。与PSNR一样SSIM经常被用于图像质量的评估。SSIM是一个介于0和1之间的值值越大输出图像和未失真图像之间的差距越小即图像质量越好。当两个图像完全相同时SSIM=1。
.. math::
l(x,y)&=\frac{2\mu_x\mu_y+C_1}{\mu_x^2+\mu_y^2+C_1}, C_1=(K_1L)^2.\\
c(x,y)&=\frac{2\sigma_x\sigma_y+C_2}{\sigma_x^2+\sigma_y^2+C_2}, C_2=(K_2L)^2.\\
s(x,y)&=\frac{\sigma_{xy}+C_3}{\sigma_x\sigma_y+C_3}, C_3=C_2/2.\\
SSIM(x,y)&=l*c*s\\&=\frac{(2\mu_x\mu_y+C_1)(2\sigma_{xy}+C_2)}{(\mu_x^2+\mu_y^2+C_1)(\sigma_x^2+\sigma_y^2+C_2)}.
参数:
- **max_val** (Union[int, float]) - 像素值的动态范围即最大值和最小值之间的差值。8bit灰度图像像素为255。默认值1.0。
- **filter_size** (int) - 高斯滤波器的大小。该值必须大于等于1。默认值11。
- **filter_sigma** (float) - 高斯核的标准差。该值必须大于0。默认值1.5。
- **k1** (float) - 用于在亮度比较函数中生成 :math:`C_1` 的常量。默认值0.01。
- **k2** (float) - 用于在对比度比较函数中生成 :math:`C_2` 的常量。默认值0.03。
输入:
- **img1** (Tensor):格式为'NCHW'的输入图像。shape和数据类型必须与img2相同。
- **img2** (Tensor):格式为'NCHW'的输入图像。shape和数据类型必须与img1相同。
输出:
Tensor数据类型与 `img1` 相同。shape为N的一维Tensor其中N是 `img1` 的批次号。
异常:
- **TypeError** - `max_val` 既不是int也不是float。
- **TypeError** - `k1``k2``filter_sigma` 不是float。
- **TypeError** - `filter_size` 不是int。
- **ValueError** - `max_val``filter_sigma` 小于或等于0。
- **ValueError** - `filter_size` 小于0。

View File

@ -1,27 +0,0 @@
mindspore.nn.SparseTensorDenseMatmul
=====================================
.. py:class:: mindspore.nn.SparseTensorDenseMatmul(adjoint_st=False, adjoint_dt=False)
稀疏矩阵 `a` 乘以稠密矩阵 `b` 。稀疏矩阵和稠密矩阵的秩必须等于2。
参数:
- **adjoint_st** (bool) - 如果为True则在乘法之前转置稀疏Tensor。默认值False。
- **adjoint_dt** (bool) - 如果为True则在乘法之前转置稠密Tensor。默认值False。
输入:
- **indices** (Tensor) - 二维Tensor表示元素在稀疏Tensor中的位置。支持int32、int64每个元素值都应该是非负的。shape为 :math:`(n, 2)`
- **values** (Tensor) - 一维Tensor表示 `indices` 位置上对应的值。支持float16、float32、float64、int32、int64。shape为 :math:`(n,)`
- **sparse_shape** (tuple) - 指定稀疏Tensor的shape由两个正整数组成表示稀疏Tensor的shape为 :math:`(N, C)`
- **dense** (Tensor) - 二维Tensor数据类型与 `values` 相同。
如果 `adjoint_st` 为False `adjoint_dt` 为False则shape必须为 :math:`(C, M)`
如果 `adjoint_st` 为False `adjoint_dt` 为True则shape必须为 :math:`(M, C)`
如果 `adjoint_st` 为True `adjoint_dt` 为False则shape必须为 :math:`(N, M)`
如果 `adjoint_st` 为True `adjoint_dt` 为True则shape必须为 :math:`(M, N)`
输出:
Tensor数据类型与 `values` 相同。如果 `adjoint_st` 为False则shape为 :math:`(N, M)` 。如果 `adjoint_st` 为True则shape为 :math:`(C, M)`
异常:
- **TypeError** - `adjoint_st``adjoint_dt` 的类型不是bool或者 `indices``values``dense` 的数据类型不符合参数说明。
- **ValueError** - `sparse_shape``indices``values``dense` 的shape不符合参数说明。

View File

@ -1,19 +0,0 @@
mindspore.nn.SparseToDense
===========================
.. py:class:: mindspore.nn.SparseToDense
将稀疏Tensor(COO Tensor)转换为稠密Tensor。
在Python中为了方便使用三个Tensor被收集到一个SparseTensor类中。MindSpore使用三个独立的稠密Tensor `indices``values``dense_shape` 来表示稀疏Tensor。在调用 :class:`mindspore.ops.SparseToDense` 之前,可以单独的将 `indices``values``dense_shape` 传递给稀疏Tensor对象。
输入:
- **coo_tensor** (:class:`mindspore.COOTensor`) - 要转换的稀疏Tensor。
输出:
Tensor由稀疏Tensor转换而成。
异常:
- **TypeError** - `sparse_tensor.indices` 不是Tensor。
- **TypeError** - `sparse_tensor.values` 不是Tensor。
- **TypeError** - `sparse_tensor.dense_shape` 不是tuple。

View File

@ -1,21 +0,0 @@
mindspore.nn.Tril
=================
.. py:class:: mindspore.nn.Tril
返回一个Tensor指定主对角线以上的元素被置为零。
将矩阵元素沿主对角线分为上三角和下三角(包含对角线)。
参数 `k` 控制对角线的选择。若 `k` 为0则沿主对角线分割并保留下三角所有元素。若 `k` 为正值,则沿主对角线向上选择对角线 `k` ,并保留下三角所有元素。若 `k` 为负值,则沿主对角线向下选择对角线 `k` ,并保留下三角所有元素。
输入:
- **x** (Tensor)输入Tensor。数据类型为 `number <https://www.mindspore.cn/docs/zh-CN/r2.0.0-alpha/api_python/mindspore/mindspore.dtype.html#mindspore.dtype>`_
- **k** (int)对角线的索引。默认值0。假设输入的矩阵的维度分别为d1d2则k的范围应在[-min(d1, d2)+1, min(d1, d2)-1],超出该范围时输出值与输入 `x` 一致。
输出:
Tensor数据类型和shape与 `x` 相同。
异常:
- **TypeError** `k` 不是int。
- **ValueError** `x` 的维度小于1。

View File

@ -1,21 +0,0 @@
mindspore.nn.Triu
==================
.. py:class:: mindspore.nn.Triu
返回一个Tensor指定主对角线以下的元素被置为0。
将矩阵元素沿主对角线分为上三角和下三角(包含对角线)。
参数 `k` 控制对角线的选择。若 `k` 为0则沿主对角线分割并保留上三角所有元素。若 `k` 为正值,则沿主对角线向上选择对角线 `k` ,并保留上三角所有元素。若 `k` 为负值,则沿主对角线向下选择对角线 `k` ,并保留上三角所有元素。
输入:
- **x** (Tensor) - Triu的输入任意维度的Tensor其数据类型为数值型。
- **k** (int) - 对角线的索引。默认值0。
输出:
Tensor数据类型和shape与 `x` 相同。
异常:
- **TypeError** - `k` 不是int。
- **ValueError** - `x` 的shape长度小于1。

View File

@ -1,7 +0,0 @@
mindspore.nn.Vjp
=================
.. py:class:: mindspore.nn.Vjp(fn)
Vjp接口即将被弃用请使用 :func:`mindspore.ops.vjp` 替代。

View File

@ -40,9 +40,9 @@ mindspore.nn.probability.distribution.Distribution
重写Cell中的 `construct`
.. note::
支持的函数包括:'prob'、'log_prob'、'cdf', 'log_cdf'、'survival_function'、'log_survival'、'var'、
'sd'、'mode'、'mean'、'entropy'、'kl_loss'、'cross_entropy'、'sample'、'get_dist_args'、'get_dist_type'。
.. note::
支持的函数包括:'prob'、 'log_prob'、 'cdf'、 'log_cdf'、 'survival_function'、 'log_survival'、 'var'、
'sd'、 'mode'、 'mean'、 'entropy'、 'kl_loss'、 'cross_entropy'、 'sample'、 'get_dist_args'、 'get_dist_type'。
参数:
- **name** (str) - 函数名称。

View File

@ -37,10 +37,9 @@ mindspore.train.Accuracy
参数:
- **inputs** - 预测值 `y_pred` 和真实标签 `y` `y_pred``y` 支持Tensor、list或numpy.ndarray类型。
对于'classification'情况, `y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。
`y` 由整数值组成如果是one_hot编码格式shape是 :math:`(N,C)` 如果是类别索引shape是 :math:`(N,)`
对于'multilabel'情况, `y_pred``y` 只能是值为0或1的one-hot编码格式其中值为1的索引表示正类别。 `y_pred``y` 的shape都是 :math:`(N,C)`
- 对于'classification'情况, `y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。
`y` 由整数值组成如果是one_hot编码格式shape是 :math:`(N,C)` 如果是类别索引shape是 :math:`(N,)`
- 对于'multilabel'情况, `y_pred``y` 只能是值为0或1的one-hot编码格式其中值为1的索引表示正类别。 `y_pred``y` 的shape都是 :math:`(N,C)`
异常:
- **ValueError** - inputs的数量不等于2。

View File

@ -5,7 +5,7 @@ mindspore.train.ConfusionMatrix
计算混淆矩阵(confusion matrix),通常用于评估分类模型的性能,包括二分类和多分类场景。
如果只想使用混淆矩阵,请使用该类。如果想计算"PPV"、"TPR"、"TNR"等,请使用'mindspore.train.ConfusionMatrixMetric'类。
如果只想使用混淆矩阵,请使用该类。如果想计算"PPV"、"TPR"、"TNR"等,请使用 :class:`mindspore.train.ConfusionMatrixMetric` 类。
参数:
- **num_classes** (int) - 数据集中的类别数量。

View File

@ -9,7 +9,7 @@ mindspore.train.ConfusionMatrixMetric
此函数支持计算参数metric_name中描述中列出的所有度量名称。
如果要使用混淆矩阵计算,如"PPV"、"TPR"、"TNR",请使用此类。
如果只想计算混淆矩阵,请使用'mindspore.train.ConfusionMatrix'
如果只想计算混淆矩阵,请使用 :class:`mindspore.train.ConfusionMatrix`
参数:
- **skip_channel** (bool) - 是否跳过预测输出的第一个通道的度量计算。默认值True。

View File

@ -15,7 +15,7 @@
- **optimizer** (Cell) - 用于更新网络权重的优化器。如果 `optimizer` 为None `network` 中需要进行反向传播和网络权重更新。默认值None。
- **metrics** (Union[dict, set]) - 用于模型评估的一组评价函数。例如:{'accuracy', 'recall'}。默认值None。
- **eval_network** (Cell) - 用于评估的神经网络。未定义情况下,`Model` 会使用 `network``loss_fn` 封装一个 `eval_network` 。默认值None。
- **eval_indexes** (list) - 在定义 `eval_network` 的情况下使用。如果 `eval_indexes` 为默认值None`Model` 会将 `eval_network` 的所有输出传给 `metrics` 。如果配置 `eval_indexes` ,必须包含三个元素,分别为损失值、预测值和标签在 `eval_network` 输出中的位置,此时,损失值将传给损失评价函数,预测值和标签将传给其他评价函数。推荐使用评价函数的 `mindspore.nn.Metric.set_indexes` 代替 `eval_indexes` 。默认值None。
- **eval_indexes** (list) - 在定义 `eval_network` 的情况下使用。如果 `eval_indexes` 为默认值None`Model` 会将 `eval_network` 的所有输出传给 `metrics` 。如果配置 `eval_indexes` ,必须包含三个元素,分别为损失值、预测值和标签在 `eval_network` 输出中的位置,此时,损失值将传给损失评价函数,预测值和标签将传给其他评价函数。推荐使用评价函数的 `mindspore.train.Metric.set_indexes` 代替 `eval_indexes` 。默认值None。
- **amp_level** (str) - `mindspore.build_train_network` 的可选参数 `level` `level` 为混合精度等级,该参数支持["O0", "O1", "O2", "O3", "auto"]。默认值:"O0"。
- "O0": 不变化。

View File

@ -3594,31 +3594,8 @@ class Tensor(Tensor_):
return tensor_operator_registry.get("top_k")(sorted)(self, k)
def sigmoid(self):
r"""
Sigmoid activation function.
Computes Sigmoid of input element-wise. The Sigmoid function is defined as:
.. math::
\text{sigmoid}(x_i) = \frac{1}{1 + \exp(-x_i)}
where :math:`x_i` is an element of the self tensor.
Returns:
Tensor, with the same type and shape as the self tensor.
Raises:
TypeError: If dtype of self tensor is not float16, float32, float64, complex64 or complex128.
Supported Platforms:
``Ascend`` ``GPU`` ``CPU``
Examples:
>>> input_x = Tensor(np.array([1, 2, 3, 4, 5]), mindspore.float32)
>>> output = input_x.sigmoid()
>>> print(output)
[0.7310586 0.880797 0.95257413 0.98201376 0.9933072 ]
"""
For details, please refer to :func:`mindspore.ops.sigmoid`.
"""
return tensor_operator_registry.get("sigmoid")()(self)

View File

@ -5350,7 +5350,7 @@ class BatchToSpaceND(Primitive):
Examples:
>>> block_size = 2
>>> crops = [[0, 0], [0, 0]]
>>> batch_to_space = ops.BatchToSpace(block_size, crops)
>>> batch_to_space = ops.BatchToSpaceND(block_size, crops)
>>> input_x = Tensor(np.array([[[[1]]], [[[2]]], [[[3]]], [[[4]]]]), mindspore.float32)
>>> output = batch_to_space(input_x)
>>> print(output)
@ -7494,7 +7494,7 @@ class FillDiagonal(Primitive):
Args:
fill_value (float): The fill value.
wrap (bool, optional): the diagonal wrapped after N columns for tall matrices. Default: False.
wrap (bool, optional): the diagonal `wrapped` after N columns for tall matrices. Default: False.
Inputs:
- **input_x** (Tensor) - The shape of tensor is :math:`(x_1, x_2, ..., x_R)`.

View File

@ -73,13 +73,14 @@ class Accuracy(EvaluationBase):
Args:
inputs: Logits and labels. `y_pred` stands for logits, `y` stands for labels. `y_pred` and `y` must be a
`Tensor`, a list or an array.
For the 'classification' evaluation type, `y_pred` is a list of floating numbers in range :math:`[0, 1]`
and the shape is :math:`(N, C)` in most cases (not strictly), where :math:`N` is the number of cases and
:math:`C` is the number of categories. `y` must be in one-hot format that shape is :math:`(N, C)`, or can
be transformed to one-hot format that shape is :math:`(N,)`.
For 'multilabel' evaluation type, the value of `y_pred` and `y` can only be 0 or 1, indices with 1
indicate the positive category. The shape of `y_pred` and `y` are both :math:`(N, C)`.
`Tensor`, a list or an array.
- For the 'classification' evaluation type, `y_pred` is a list of floating numbers in range
:math:`[0, 1]` and the shape is :math:`(N, C)` in most cases (not strictly), where :math:`N`
is the number of cases and :math:`C` is the number of categories. `y` must be in one-hot format
that shape is :math:`(N, C)`, or can be transformed to one-hot format that shape is :math:`(N,)`.
- For 'multilabel' evaluation type, the value of `y_pred` and `y` can only be 0 or 1, indices with 1
indicate the positive category. The shape of `y_pred` and `y` are both :math:`(N, C)`.
Raises:
ValueError: If the number of the inputs is not 2.

View File

@ -27,7 +27,7 @@ class ConfusionMatrix(Metric):
including binary classification and multiple classification.
If you only need confusion matrix, use this class. If you want to calculate other metrics, such as 'PPV',
'TPR', 'TNR', etc., use class 'mindspore.train.ConfusionMatrixMetric'.
'TPR', 'TNR', etc., use class :class:`mindspore.train.ConfusionMatrixMetric` .
Args:
num_classes (int): Number of classes in the dataset.
@ -152,7 +152,7 @@ class ConfusionMatrixMetric(Metric):
of `metric_name`.
If you want to calculate metrics related to confusion matrix, such as 'PPV', 'TPR', 'TNR', use this class.
If you only want to calculate confusion matrix, please use 'mindspore.metrics.ConfusionMatrix'.
If you only want to calculate confusion matrix, please use :class:`mindspore.train.ConfusionMatrix` .
Args:
skip_channel (bool): Whether to skip the measurement calculation on the first channel of the predicted output.

View File

@ -125,7 +125,7 @@ class Model:
three elements: the positions of loss value, predicted value and label in outputs of the
`eval_network`. In this case, the loss value will be passed to the `Loss` metric, the
predicted value and label will be passed to other metrics.
:func: `mindindex.nn.metric.set_indexes` is recommended instead of `eval_indexes`.
:func:`mindspore.train.metric.set_indexes` is recommended instead of `eval_indexes`.
Default: None.
amp_level (str): Option for argument `level` in :func:`mindspore.build_train_network`, level for mixed
precision training. Supports ["O0", "O1", "O2", "O3", "auto"]. Default: "O0".