forked from mindspore-Ecosystem/mindspore
!40955 optimizes the documentation of chinese API of LSTM,Lerp,etc
Merge pull request !40955 from zhangfanghe/docs_master_zfh_16
This commit is contained in:
commit
1e0e9a47f9
|
@ -0,0 +1,37 @@
|
|||
mindspore.ops.LSTM
|
||||
===================
|
||||
|
||||
.. py:class:: mindspore.ops.LSTM(input_size, hidden_size, num_layers, has_bias, bidirectional, dropout)
|
||||
|
||||
长短期记忆(LSTM)网络。
|
||||
|
||||
有关详细信息,请参见 :class:`mindspore.nn.LSTM` 。
|
||||
|
||||
参数:
|
||||
- **input_size** (int) - 输入的大小。
|
||||
- **hidden_size** (int) - 隐藏状态大小。
|
||||
- **num_layers** (int) - LSTM的网络层数。
|
||||
- **has_bias** (bool) - Cell是否有偏置 `b_ih` 和 `b_hh` 。
|
||||
- **bidirectional** (bool) - 是否为双向LSTM。
|
||||
- **dropout** (float) - 指的是除第一层外每层输入时的dropout概率。默认值:0。dropout的范围为[0.0, 1.0]。
|
||||
|
||||
输入:
|
||||
- **input** (Tensor) - shape为 :math:`(seq\_len, batch\_size, input\_size)` 或 :math:`(batch\_size, seq\_len, input\_size)` 的Tensor。
|
||||
- **h** (tuple) - shape为 :math:`(num\_directions * num\_layers, batch\_size, hidden\_size)` 的Tensor。
|
||||
- **c** (tuple) - shape为 :math:`(num\_directions * num\_layers, batch\_size, hidden\_size)` 的Tensor。
|
||||
- **w** (Tensor) - 权重。
|
||||
|
||||
输出:
|
||||
tuple,tuple包含( `output` , `h\_n` , `c\_n` , `reserve` , `state` )。
|
||||
|
||||
- **output** (Tensor) - shape为 :math:`(seq\_len, batch\_size, num\_directions * hidden\_size)` 的Tensor。
|
||||
- **h_n** (Tensor) - shape为 :math:`(num\_directions * num\_layers, batch\_size, hidden\_size)` 的Tensor。
|
||||
- **c_n** (Tensor) - shape为 :math:`(num\_directions * num\_layers, batch\_size, hidden\_size)` 的Tensor。
|
||||
- **reserve** (Tensor) - shape为 :math:`(r,1)` 。
|
||||
- **state** (Tensor) - 使用随机数生成状态及其shape为 :math:`(s,1)` 。
|
||||
|
||||
异常:
|
||||
- **TypeError** - 如果 `input_size` , `hidden_size` 或 `num_layers` 不是int。
|
||||
- **TypeError** - 如果 `has_bias` 或 `bidirectional` 不是bool。
|
||||
- **TypeError** - 如果 `dropout` 不是float。
|
||||
- **ValueError** - 如果 `dropout` 不在范围[0.0, 1.0]内。
|
|
@ -0,0 +1,8 @@
|
|||
mindspore.ops.Lerp
|
||||
===================
|
||||
|
||||
.. py:class:: mindspore.ops.Lerp
|
||||
|
||||
逐元素计算输入张量的最小值。
|
||||
|
||||
有关更多详细信息,请参阅: :func:`mindspore.ops.lerp` 。
|
|
@ -0,0 +1,11 @@
|
|||
mindspore.ops.LpNorm
|
||||
=====================
|
||||
|
||||
.. py:class:: mindspore.ops.LpNorm(axis, p=2, keep_dims=False, epsilon=1e-12)
|
||||
|
||||
返回输入Tensor的矩阵范数或向量范数。
|
||||
|
||||
.. math::
|
||||
output = sum(abs(input)**p)**(1/p)
|
||||
|
||||
有关更多详细信息,请参阅: :func:`mindspore.ops.norm` 。
|
|
@ -0,0 +1,18 @@
|
|||
mindspore.ops.Map
|
||||
==================
|
||||
|
||||
.. py:class:: mindspore.ops.Map(ops=None, reverse=False)
|
||||
|
||||
Map将对输入序列应用设置的函数操作。
|
||||
|
||||
此操作将应用到输入序列的每个元素。
|
||||
|
||||
参数:
|
||||
- **ops** (Union[MultitypeFuncGraph, None]) - `ops` 是要应用的操作。如果 `ops` 为None,则操作应放在实例的第一个输入中。默认值:None。
|
||||
- **reverse** (bool) - 在某些场景中,优化器需要反转以提高并行性能,一般用户可忽略。 `reverse` 表示是否为反向应用操作的标志。仅支持图模式。默认值:False。
|
||||
|
||||
输入:
|
||||
- **args** (Tuple[sequence]) - 如果 `ops` 不是None,则所有输入的序列和序列的每一行都应该是相同长度。例如,如果 `args` 的长度为2,那么每个序列 `(args[0][i],args[1][i])` 长度的 `i` 将作为操作的输入。如果 `ops` 为None,则第一个输入是操作,另一个输入是输入。
|
||||
|
||||
输出:
|
||||
序列,进行函数操作后的输出序列。例如 `operation(args[0][i], args[1][i])` 。
|
|
@ -0,0 +1,14 @@
|
|||
mindspore.ops.NPUAllocFloatStatus
|
||||
==================================
|
||||
|
||||
.. py:class:: mindspore.ops.NPUAllocFloatStatus
|
||||
|
||||
分配一个标志来存储溢出状态。
|
||||
|
||||
标志是一个Tensor,其shape为 :math:`(8,)` ,数据类型为 `mindspore.dtype.float32` 。
|
||||
|
||||
.. note::
|
||||
请参考 :class:`mindspore.ops.NPUGetFloatStatus` 的样例。
|
||||
|
||||
输出:
|
||||
Tensor,shape为 :math:`(8,)` 。
|
|
@ -0,0 +1,17 @@
|
|||
mindspore.ops.NPUClearFloatStatus
|
||||
=================================
|
||||
|
||||
.. py:class:: mindspore.ops.NPUClearFloatStatus
|
||||
|
||||
清除存储溢出状态的标识。
|
||||
|
||||
.. note::
|
||||
该标志位于 `Acend` 设备上的寄存器中。在调用 :class:`NPUClearFloatStatus` 后,它将被重置,不能再次重用。此外,使用有严格的使用顺序要求,即在使用 :class:`NPUGetFloatStatus` 算子之前,需要确保 :class:`NPUClearFloatStatus` 和需执行的计算已执行。我们使用 :class:`mindspore.ops.Depend` 确保执行顺序。
|
||||
|
||||
请参考 :class:`mindspore.ops.NPUGetFloatStatus` 的样例。
|
||||
|
||||
输入:
|
||||
- **x** (Tensor) - :class:`NPUAllocFloatStatus` 的输出Tensor。数据类型必须为float16或float32。
|
||||
|
||||
输出:
|
||||
Tensor,shape与 `x` 相同。Tensor中的所有元素都将为零。
|
|
@ -0,0 +1,18 @@
|
|||
mindspore.ops.NPUGetFloatStatus
|
||||
================================
|
||||
|
||||
.. py:class:: mindspore.ops.NPUGetFloatStatus
|
||||
|
||||
更新标识,通过执行 :class:`NPUAllocFloatStatus` 或取最新溢出状态。
|
||||
|
||||
标志是一个Tensor,其shape为 :math:`(8,)` ,数据类型为 `mindspore.dtype.float32` 。如果标志的和等于0,则没有发生溢出。如果标志之和大于0,则发生溢出。此外,使用有严格的顺序要求,即在使用 :class:`NPUGetFloatStatus` 算子之前,需要确保 :class:`NPUClearFloatStatus` 和需执行的计算已执行。使用 :class:`mindspore.ops.Depend` 确保执行顺序。
|
||||
|
||||
输入:
|
||||
- **x** (Tensor) - :class:`NPUAllocFloatStatus` 的输出Tensor。数据类型必须为float16或float32。 :math:`(N,*)` ,其中 :math:`*` 表示任意附加维度,其rank应小于8。
|
||||
|
||||
输出:
|
||||
Tensor,shape与 `x` 相同。Tensor中的所有元素都将为零。
|
||||
|
||||
异常:
|
||||
- **TypeError** - 如果 `x` 不是Tensor。
|
||||
- **TypeError** - 如果 `x` 的数据类型既不是float16也不是float32。
|
|
@ -0,0 +1,21 @@
|
|||
mindspore.ops.NeighborExchange
|
||||
===============================
|
||||
|
||||
.. py:class:: mindspore.ops.NeighborExchange(send_rank_ids, recv_rank_ids, recv_shapes, send_shapes, recv_type,group=GlobalComm.WORLD_COMM_GROUP)
|
||||
|
||||
NeighborExchange是一个集合通信函数。
|
||||
|
||||
将数据从本地rank发送到 `send_rank_ids` 中指定的rank,同时从 `recv_rank_ids` 接收数据。
|
||||
|
||||
.. note::
|
||||
在运行以下示例之前,用户需要预置环境变量,请在 `MindSpore <https://www.mindspore.cn/docs/zh-CN/master/api_python/mindspore.ops.html#通信算子>`_ 的官方网站上查看详细信息。
|
||||
|
||||
要求全连接配网,每台设备具有相同的vlan id,ip和mask在同一子网,请查看 `详细信息 <https://www.mindspore.cn/tutorials/experts/zh-CN/master/parallel/communicate_ops.html#注意事项>`_ 。
|
||||
|
||||
参数:
|
||||
- **send_rank_ids** (list(int)) - 指定发送数据的rank。
|
||||
- **recv_rank_ids** (list(int)) - 指定接收数据的rank。
|
||||
- **recv_shapes** (tuple(list(int))) - 指定 `recv_rank_ids` 接收数据的shape。
|
||||
- **send_shapes** (tuple(list(int))) - 指定 `send_rank_ids` 发送数据的shape。
|
||||
- **recv_type** (type) - 指定 `recv_rank_ids` 接收的数据类型。
|
||||
- **group** (str) - 要处理的通信范围。默认值:"GlobalComm.WORLD_COMM_GROUP"。
|
|
@ -0,0 +1,22 @@
|
|||
mindspore.ops.NoRepeatNGram
|
||||
============================
|
||||
|
||||
.. py:class:: mindspore.ops.NoRepeatNGram(ngram_size=1)
|
||||
|
||||
n-grams出现重复,则更新对应n-gram词序列出现的概率。
|
||||
|
||||
在beam search过程中,如果连续的 `ngram_size` 个词存在已生成的词序列中,那么之后预测时,将避免再次出现这连续的 `ngram_size` 个词。例如:当 `ngram_size` 为3时,已生成的词序列为[1,2,3,2,3],则下一个预测的词不会为2,并且 `log_probs` 的值将替换成负FLOAT_MAX。因为连续的3个词2,3,2不会在词序列中出现两次。
|
||||
|
||||
参数:
|
||||
- **ngram_size** (int) - 指定n-gram的长度,必须大于0。默认值:1。
|
||||
|
||||
输入:
|
||||
- **state_seq** (Tensor) - n-gram词序列。是一个三维Tensor,其shape为: :math:`(batch_size, beam_width, m)` 。
|
||||
- **log_probs** (Tensor) - n-gram词序列对应出现的概率,是一个三维Tensor,其shape为: :math:`(batch_size, beam_width, vocab_size)` 。当n-gram重复时,log_probs的值将被负FLOAT_MAX替换。
|
||||
|
||||
输出:
|
||||
- **log_probs** (Tensor) - 数据类型和shape与输入 `log_probs` 相同。
|
||||
|
||||
异常:
|
||||
- **TypeError** - 如果 `ngram_size` 不是int。
|
||||
- **TypeError** - 如果 `state_seq` 和 `log_probs` 都不是Tensor。
|
|
@ -0,0 +1,22 @@
|
|||
mindspore.ops.ParallelConcat
|
||||
=============================
|
||||
|
||||
.. py:class:: mindspore.ops.ParallelConcat
|
||||
|
||||
根据第一个维度连接Tensor。
|
||||
|
||||
Concat和并行Concat之间的区别在于,Concat要求在操作开始之前需要计算所有的输入,但不要求在构图期间知道输入shape。
|
||||
ParallelConcat将在输入片段可用时,将其复制到输出中,在某些情况下,这可以提供性能优势。
|
||||
|
||||
.. note::
|
||||
输入Tensor在第一个维度要求长度为1。
|
||||
|
||||
输入:
|
||||
- **values** (tuple, list) - 由Tensor组成的tuple或list。其元素的数据类型和shape必须相同。数据类型为数值型,但float64除外。
|
||||
|
||||
输出:
|
||||
Tensor,数据类型与 `values` 相同。
|
||||
|
||||
异常:
|
||||
- **ValueError** - 如果 `values` 的shape长度小于1。
|
||||
- **ValueError** - 如果 `values` 中各个Tensor的数据类型和shape不相同。
|
|
@ -0,0 +1,14 @@
|
|||
mindspore.ops.Partial
|
||||
======================
|
||||
|
||||
.. py:class:: mindspore.ops.Partial
|
||||
|
||||
偏函数。
|
||||
|
||||
对生成偏函数的实例,可传入指定的操作函数及其对应的参数。
|
||||
|
||||
输入:
|
||||
- **args** (Union[FunctionType, Tensor]) - 需传入的函数及其对应的参数。
|
||||
|
||||
输出:
|
||||
函数类型,偏函数及其对应的参数。
|
|
@ -0,0 +1,15 @@
|
|||
mindspore.ops.Rint
|
||||
==================
|
||||
|
||||
.. py:class:: mindspore.ops.Rint
|
||||
|
||||
逐元素计算最接近输入数据的整数。
|
||||
|
||||
输入:
|
||||
- **input_x** (Tensor) - 待计算的Tensor,数据必须是float16、float32。shape为 :math:`(N,*)` ,其中 :math:`*` 表示任意数量的附加维度。
|
||||
|
||||
输出:
|
||||
Tensor,shape和数据类型与 `input_x` 相同。
|
||||
|
||||
异常:
|
||||
- **TypeError** - 如果 `input_x` 的数据类型不是float16、float32、float64。
|
|
@ -0,0 +1,18 @@
|
|||
mindspore.ops.Rsqrt
|
||||
====================
|
||||
|
||||
.. py:class:: mindspore.ops.Rsqrt
|
||||
|
||||
逐元素计算输入Tensor平方根的倒数。
|
||||
|
||||
.. math::
|
||||
out_{i} = \frac{1}{\sqrt{x_{i}}}
|
||||
|
||||
输入:
|
||||
- **x** (Tensor) - Rsqrt的输入,其rank必须在[0, 7](含)中,并且每个元素必须是非负数。
|
||||
|
||||
输出:
|
||||
Tensor,数据类型和shape与 `x` 相同。
|
||||
|
||||
异常:
|
||||
- **TypeError** - 如果 `x` 不是Tensor。
|
|
@ -0,0 +1,29 @@
|
|||
mindspore.ops.SoftMarginLoss
|
||||
=============================
|
||||
|
||||
.. py:class:: mindspore.ops.SoftMarginLoss(reduction='mean')
|
||||
|
||||
SoftMarginLoss操作。
|
||||
|
||||
一个二分类任务,计算输入 :math:`x` 和真实标签 :math:`y` (包含1或-1)之间的损失。
|
||||
|
||||
.. math::
|
||||
\text{loss}(x, y) = \sum_i \frac{\log(1 + \exp(-y[i]*x[i]))}{\text{x.nelement}()}
|
||||
|
||||
其中 :math:`x.nelement()` 是x的元素数量。
|
||||
|
||||
参数:
|
||||
- **reduction** (str) - 指定输出结果的计算方式。可选值有:'none'、'mean'或'sum'。默认值:'mean'。
|
||||
|
||||
输入:
|
||||
- **logits** (Tensor) - 预测值。数据类型必须为float16或float32。
|
||||
- **labels** (Tensor) - 真实标签,数据类型和shape与 `logits` 相同。
|
||||
|
||||
输出:
|
||||
Tensor或Scalar,如果 `reduction` 为'none',其shape与 `logits` 相同。否则,将返回Scalar。
|
||||
|
||||
异常:
|
||||
- **TypeError** - 如果 `logits` 或 `labels` 不是Tensor。
|
||||
- **TypeError** - 如果 `logits` 或 `labels` 的数据类型既不是float16也不是float32。
|
||||
- **ValueError** - 如果 `logits` 与 `labels` 的shape不相同。
|
||||
- **ValueError** - 如果 `reduction` 不是'none'、'mean'或'sum'。
|
|
@ -0,0 +1,23 @@
|
|||
mindspore.ops.multinomial
|
||||
=========================
|
||||
|
||||
.. py:function:: mindspore.ops.multinomial(inputs, num_sample, replacement=True, seed=None)
|
||||
|
||||
根据输入生成一个多项式分布的Tensor。
|
||||
|
||||
.. note::
|
||||
输入的行不需要求和为1(当使用值作为权重的情况下),但必须是非负的、有限的,并且和不能为0。
|
||||
|
||||
参数:
|
||||
- **inputs** (Tensor) - 输入的概率值Tensor,必须是1维或2维,数据类型为float32。
|
||||
- **num_sample** (int) - 采样的次数。
|
||||
- **replacement** (bool, optional) - 是否是可放回的采样,默认:True。
|
||||
- **seed** (int, optional) - 随机数种子,用于生成随机数(伪随机数),必须是非负数。默认值:None。
|
||||
|
||||
返回:
|
||||
Tensor,与输入有相同的行数。每行的采样索引数为 `num_samples` 。数据类型为float32。
|
||||
|
||||
异常:
|
||||
- **TypeError** - 如果 `x` 不是数据类型不是float32的Tensor。
|
||||
- **TypeError** - 如果 `num_sample` 不是int。
|
||||
- **TypeError** - 如果 `seed` 既不是int也不是optional。
|
Loading…
Reference in New Issue