!40955 optimizes the documentation of chinese API of LSTM,Lerp,etc

Merge pull request !40955 from zhangfanghe/docs_master_zfh_16
This commit is contained in:
i-robot 2022-09-07 08:02:49 +00:00 committed by Gitee
commit 1e0e9a47f9
No known key found for this signature in database
GPG Key ID: 173E9B9CA92EEF8F
15 changed files with 287 additions and 0 deletions

View File

@ -0,0 +1,37 @@
mindspore.ops.LSTM
===================
.. py:class:: mindspore.ops.LSTM(input_size, hidden_size, num_layers, has_bias, bidirectional, dropout)
长短期记忆LSTM网络。
有关详细信息,请参见 :class:`mindspore.nn.LSTM`
参数:
- **input_size** (int) - 输入的大小。
- **hidden_size** (int) - 隐藏状态大小。
- **num_layers** (int) - LSTM的网络层数。
- **has_bias** (bool) - Cell是否有偏置 `b_ih``b_hh`
- **bidirectional** (bool) - 是否为双向LSTM。
- **dropout** (float) - 指的是除第一层外每层输入时的dropout概率。默认值0。dropout的范围为[0.0, 1.0]。
输入:
- **input** (Tensor) - shape为 :math:`(seq\_len, batch\_size, input\_size)`:math:`(batch\_size, seq\_len, input\_size)` 的Tensor。
- **h** (tuple) - shape为 :math:`(num\_directions * num\_layers, batch\_size, hidden\_size)` 的Tensor。
- **c** (tuple) - shape为 :math:`(num\_directions * num\_layers, batch\_size, hidden\_size)` 的Tensor。
- **w** (Tensor) - 权重。
输出:
tupletuple包含( `output` , `h\_n` , `c\_n` , `reserve` , `state` )。
- **output** (Tensor) - shape为 :math:`(seq\_len, batch\_size, num\_directions * hidden\_size)` 的Tensor。
- **h_n** (Tensor) - shape为 :math:`(num\_directions * num\_layers, batch\_size, hidden\_size)` 的Tensor。
- **c_n** (Tensor) - shape为 :math:`(num\_directions * num\_layers, batch\_size, hidden\_size)` 的Tensor。
- **reserve** (Tensor) - shape为 :math:`(r,1)`
- **state** (Tensor) - 使用随机数生成状态及其shape为 :math:`(s,1)`
异常:
- **TypeError** - 如果 `input_size` `hidden_size``num_layers` 不是int。
- **TypeError** - 如果 `has_bias``bidirectional` 不是bool。
- **TypeError** - 如果 `dropout` 不是float。
- **ValueError** - 如果 `dropout` 不在范围[0.0, 1.0]内。

View File

@ -0,0 +1,8 @@
mindspore.ops.Lerp
===================
.. py:class:: mindspore.ops.Lerp
逐元素计算输入张量的最小值。
有关更多详细信息,请参阅: :func:`mindspore.ops.lerp`

View File

@ -0,0 +1,11 @@
mindspore.ops.LpNorm
=====================
.. py:class:: mindspore.ops.LpNorm(axis, p=2, keep_dims=False, epsilon=1e-12)
返回输入Tensor的矩阵范数或向量范数。
.. math::
output = sum(abs(input)**p)**(1/p)
有关更多详细信息,请参阅: :func:`mindspore.ops.norm`

View File

@ -0,0 +1,18 @@
mindspore.ops.Map
==================
.. py:class:: mindspore.ops.Map(ops=None, reverse=False)
Map将对输入序列应用设置的函数操作。
此操作将应用到输入序列的每个元素。
参数:
- **ops** (Union[MultitypeFuncGraph, None]) - `ops` 是要应用的操作。如果 `ops` 为None则操作应放在实例的第一个输入中。默认值None。
- **reverse** (bool) - 在某些场景中,优化器需要反转以提高并行性能,一般用户可忽略。 `reverse` 表示是否为反向应用操作的标志。仅支持图模式。默认值False。
输入:
- **args** (Tuple[sequence]) - 如果 `ops` 不是None则所有输入的序列和序列的每一行都应该是相同长度。例如如果 `args` 的长度为2那么每个序列 `(args[0][i],args[1][i])` 长度的 `i` 将作为操作的输入。如果 `ops` 为None则第一个输入是操作另一个输入是输入。
输出:
序列,进行函数操作后的输出序列。例如 `operation(args[0][i], args[1][i])`

View File

@ -0,0 +1,14 @@
mindspore.ops.NPUAllocFloatStatus
==================================
.. py:class:: mindspore.ops.NPUAllocFloatStatus
分配一个标志来存储溢出状态。
标志是一个Tensor其shape为 :math:`(8,)` ,数据类型为 `mindspore.dtype.float32`
.. note::
请参考 :class:`mindspore.ops.NPUGetFloatStatus` 的样例。
输出:
Tensorshape为 :math:`(8,)`

View File

@ -0,0 +1,17 @@
mindspore.ops.NPUClearFloatStatus
=================================
.. py:class:: mindspore.ops.NPUClearFloatStatus
清除存储溢出状态的标识。
.. note::
该标志位于 `Acend` 设备上的寄存器中。在调用 :class:`NPUClearFloatStatus` 后,它将被重置,不能再次重用。此外,使用有严格的使用顺序要求,即在使用 :class:`NPUGetFloatStatus` 算子之前,需要确保 :class:`NPUClearFloatStatus` 和需执行的计算已执行。我们使用 :class:`mindspore.ops.Depend` 确保执行顺序。
请参考 :class:`mindspore.ops.NPUGetFloatStatus` 的样例。
输入:
- **x** (Tensor) - :class:`NPUAllocFloatStatus` 的输出Tensor。数据类型必须为float16或float32。
输出:
Tensorshape与 `x` 相同。Tensor中的所有元素都将为零。

View File

@ -0,0 +1,18 @@
mindspore.ops.NPUGetFloatStatus
================================
.. py:class:: mindspore.ops.NPUGetFloatStatus
更新标识,通过执行 :class:`NPUAllocFloatStatus` 或取最新溢出状态。
标志是一个Tensor其shape为 :math:`(8,)` ,数据类型为 `mindspore.dtype.float32` 。如果标志的和等于0则没有发生溢出。如果标志之和大于0则发生溢出。此外使用有严格的顺序要求即在使用 :class:`NPUGetFloatStatus` 算子之前,需要确保 :class:`NPUClearFloatStatus` 和需执行的计算已执行。使用 :class:`mindspore.ops.Depend` 确保执行顺序。
输入:
- **x** (Tensor) - :class:`NPUAllocFloatStatus` 的输出Tensor。数据类型必须为float16或float32。 :math:`(N,*)` ,其中 :math:`*` 表示任意附加维度其rank应小于8。
输出:
Tensorshape与 `x` 相同。Tensor中的所有元素都将为零。
异常:
- **TypeError** - 如果 `x` 不是Tensor。
- **TypeError** - 如果 `x` 的数据类型既不是float16也不是float32。

View File

@ -0,0 +1,21 @@
mindspore.ops.NeighborExchange
===============================
.. py:class:: mindspore.ops.NeighborExchange(send_rank_ids, recv_rank_ids, recv_shapes, send_shapes, recv_type,group=GlobalComm.WORLD_COMM_GROUP)
NeighborExchange是一个集合通信函数。
将数据从本地rank发送到 `send_rank_ids` 中指定的rank同时从 `recv_rank_ids` 接收数据。
.. note::
在运行以下示例之前,用户需要预置环境变量,请在 `MindSpore <https://www.mindspore.cn/docs/zh-CN/master/api_python/mindspore.ops.html#通信算子>`_ 的官方网站上查看详细信息。
要求全连接配网每台设备具有相同的vlan idip和mask在同一子网请查看 `详细信息 <https://www.mindspore.cn/tutorials/experts/zh-CN/master/parallel/communicate_ops.html#注意事项>`_
参数:
- **send_rank_ids** (list(int)) - 指定发送数据的rank。
- **recv_rank_ids** (list(int)) - 指定接收数据的rank。
- **recv_shapes** (tuple(list(int))) - 指定 `recv_rank_ids` 接收数据的shape。
- **send_shapes** (tuple(list(int))) - 指定 `send_rank_ids` 发送数据的shape。
- **recv_type** (type) - 指定 `recv_rank_ids` 接收的数据类型。
- **group** (str) - 要处理的通信范围。默认值:"GlobalComm.WORLD_COMM_GROUP"。

View File

@ -0,0 +1,22 @@
mindspore.ops.NoRepeatNGram
============================
.. py:class:: mindspore.ops.NoRepeatNGram(ngram_size=1)
n-grams出现重复则更新对应n-gram词序列出现的概率。
在beam search过程中如果连续的 `ngram_size` 个词存在已生成的词序列中,那么之后预测时,将避免再次出现这连续的 `ngram_size` 个词。例如:当 `ngram_size` 为3时已生成的词序列为[1,2,3,2,3]则下一个预测的词不会为2并且 `log_probs` 的值将替换成负FLOAT_MAX。因为连续的3个词2,3,2不会在词序列中出现两次。
参数:
- **ngram_size** (int) - 指定n-gram的长度必须大于0。默认值1。
输入:
- **state_seq** (Tensor) - n-gram词序列。是一个三维Tensor其shape为 :math:`(batch_size, beam_width, m)`
- **log_probs** (Tensor) - n-gram词序列对应出现的概率是一个三维Tensor其shape为 :math:`(batch_size, beam_width, vocab_size)` 。当n-gram重复时log_probs的值将被负FLOAT_MAX替换。
输出:
- **log_probs** (Tensor) - 数据类型和shape与输入 `log_probs` 相同。
异常:
- **TypeError** - 如果 `ngram_size` 不是int。
- **TypeError** - 如果 `state_seq``log_probs` 都不是Tensor。

View File

@ -0,0 +1,22 @@
mindspore.ops.ParallelConcat
=============================
.. py:class:: mindspore.ops.ParallelConcat
根据第一个维度连接Tensor。
Concat和并行Concat之间的区别在于Concat要求在操作开始之前需要计算所有的输入但不要求在构图期间知道输入shape。
ParallelConcat将在输入片段可用时将其复制到输出中在某些情况下这可以提供性能优势。
.. note::
输入Tensor在第一个维度要求长度为1。
输入:
- **values** (tuple, list) - 由Tensor组成的tuple或list。其元素的数据类型和shape必须相同。数据类型为数值型但float64除外。
输出:
Tensor数据类型与 `values` 相同。
异常:
- **ValueError** - 如果 `values` 的shape长度小于1。
- **ValueError** - 如果 `values` 中各个Tensor的数据类型和shape不相同。

View File

@ -0,0 +1,14 @@
mindspore.ops.Partial
======================
.. py:class:: mindspore.ops.Partial
偏函数。
对生成偏函数的实例,可传入指定的操作函数及其对应的参数。
输入:
- **args** (Union[FunctionType, Tensor]) - 需传入的函数及其对应的参数。
输出:
函数类型,偏函数及其对应的参数。

View File

@ -0,0 +1,15 @@
mindspore.ops.Rint
==================
.. py:class:: mindspore.ops.Rint
逐元素计算最接近输入数据的整数。
输入:
- **input_x** (Tensor) - 待计算的Tensor数据必须是float16、float32。shape为 :math:`(N,*)` ,其中 :math:`*` 表示任意数量的附加维度。
输出:
Tensorshape和数据类型与 `input_x` 相同。
异常:
- **TypeError** - 如果 `input_x` 的数据类型不是float16、float32、float64。

View File

@ -0,0 +1,18 @@
mindspore.ops.Rsqrt
====================
.. py:class:: mindspore.ops.Rsqrt
逐元素计算输入Tensor平方根的倒数。
.. math::
out_{i} = \frac{1}{\sqrt{x_{i}}}
输入:
- **x** (Tensor) - Rsqrt的输入其rank必须在[0, 7](含)中,并且每个元素必须是非负数。
输出:
Tensor数据类型和shape与 `x` 相同。
异常:
- **TypeError** - 如果 `x` 不是Tensor。

View File

@ -0,0 +1,29 @@
mindspore.ops.SoftMarginLoss
=============================
.. py:class:: mindspore.ops.SoftMarginLoss(reduction='mean')
SoftMarginLoss操作。
一个二分类任务,计算输入 :math:`x` 和真实标签 :math:`y` 包含1或-1之间的损失。
.. math::
\text{loss}(x, y) = \sum_i \frac{\log(1 + \exp(-y[i]*x[i]))}{\text{x.nelement}()}
其中 :math:`x.nelement()` 是x的元素数量。
参数:
- **reduction** (str) - 指定输出结果的计算方式。可选值有:'none'、'mean'或'sum'。默认值:'mean'。
输入:
- **logits** (Tensor) - 预测值。数据类型必须为float16或float32。
- **labels** (Tensor) - 真实标签数据类型和shape与 `logits` 相同。
输出:
Tensor或Scalar如果 `reduction` 为'none'其shape与 `logits` 相同。否则将返回Scalar。
异常:
- **TypeError** - 如果 `logits``labels` 不是Tensor。
- **TypeError** - 如果 `logits``labels` 的数据类型既不是float16也不是float32。
- **ValueError** - 如果 `logits``labels` 的shape不相同。
- **ValueError** - 如果 `reduction` 不是'none'、'mean'或'sum'。

View File

@ -0,0 +1,23 @@
mindspore.ops.multinomial
=========================
.. py:function:: mindspore.ops.multinomial(inputs, num_sample, replacement=True, seed=None)
根据输入生成一个多项式分布的Tensor。
.. note::
输入的行不需要求和为1当使用值作为权重的情况下但必须是非负的、有限的并且和不能为0。
参数:
- **inputs** (Tensor) - 输入的概率值Tensor必须是1维或2维数据类型为float32。
- **num_sample** (int) - 采样的次数。
- **replacement** (bool, optional) - 是否是可放回的采样默认True。
- **seed** (int, optional) - 随机数种子,用于生成随机数(伪随机数)必须是非负数。默认值None。
返回:
Tensor与输入有相同的行数。每行的采样索引数为 `num_samples` 。数据类型为float32。
异常:
- **TypeError** - 如果 `x` 不是数据类型不是float32的Tensor。
- **TypeError** - 如果 `num_sample` 不是int。
- **TypeError** - 如果 `seed` 既不是int也不是optional。