repair brackets errors

This commit is contained in:
huodagu 2022-09-06 17:48:14 +08:00
parent 85b844fc82
commit a6adb944cb
28 changed files with 31 additions and 30 deletions

View File

@ -19,7 +19,7 @@ mindspore.amp.LossScaleManager
.. py:method:: update_loss_scale(overflow) .. py:method:: update_loss_scale(overflow)
根据 `overflow` 状态更新梯度放大系数loss scale) 根据 `overflow` 状态更新梯度放大系数loss scale
参数: 参数:
- **overflow** (bool) - 表示训练过程是否溢出。 - **overflow** (bool) - 表示训练过程是否溢出。

View File

@ -10,7 +10,7 @@ mindspore.dataset.IWSLT2016Dataset
参数: 参数:
- **dataset_dir** (str) - 包含数据集文件的根目录路径。 - **dataset_dir** (str) - 包含数据集文件的根目录路径。
- **usage** (str, 可选) - 指定数据集的子集,可取值为'train''valid''test'或'all'。默认值None读取全部样本。 - **usage** (str, 可选) - 指定数据集的子集,可取值为'train''valid''test'或'all'。默认值None读取全部样本。
- **language_pair** (sequence, 可选) - 包含源语言和目标语言的序列,支持的值为('en''fr')、('en''de')、('en''cs')、('en''ar')、('de''en','cs''en','ar''en'),默认值:('de''en')。 - **language_pair** (sequence, 可选) - 包含源语言和目标语言的序列,支持的值为('en''fr')、('en''de')、('en''cs')、('en''ar')、('de''en','cs''en','ar''en'),默认值:'de''en')。
- **valid_set** (str, 可选) - 标识验证集的字符串,支持的值为'dev2010'、'tst2010'、'tst2011'、'tst'2012'tst2013'和'tst2014',默认值:'tst2013'。 - **valid_set** (str, 可选) - 标识验证集的字符串,支持的值为'dev2010'、'tst2010'、'tst2011'、'tst'2012'tst2013'和'tst2014',默认值:'tst2013'。
- **test_set** (str, 可选) - 识测试集的字符串,支持的值为'dev2010'、'tst2010'、'tst2011'、'tst'2012、'tst2013'和'tst2014',默认值:'tst2014'。 - **test_set** (str, 可选) - 识测试集的字符串,支持的值为'dev2010'、'tst2010'、'tst2011'、'tst'2012、'tst2013'和'tst2014',默认值:'tst2014'。
- **num_samples** (int, 可选) - 指定从数据集中读取的样本数。 - **num_samples** (int, 可选) - 指定从数据集中读取的样本数。

View File

@ -10,7 +10,7 @@ mindspore.dataset.IWSLT2017Dataset
参数: 参数:
- **dataset_dir** (str) - 包含数据集文件的根目录路径。 - **dataset_dir** (str) - 包含数据集文件的根目录路径。
- **usage** (str, 可选) - 指定数据集的子集,可取值为'train''valid''test'或'all'。默认值None读取全部样本。 - **usage** (str, 可选) - 指定数据集的子集,可取值为'train''valid''test'或'all'。默认值None读取全部样本。
- **language_pair** (sequence, 可选) - 包含源语和目标语的语言列表,支持的语言对有('en''nl')、('en''de')、('en''it')、('en''ro')、('nl''en''de')、('nl''it')、('nl''ro')、('de''en')、('de''nl')、('de''it''it''en')、('it''nl')、('it''de')、('it''ro')、('ro''en')、('ro''nl')、('ro''de')、('ro''it'),默认值:('de''en')。 - **language_pair** (sequence, 可选) - 包含源语和目标语的语言列表,支持的语言对有('en''nl')、('en''de')、('en''it')、('en''ro')、('nl''en''de')、('nl''it')、('nl''ro')、('de''en')、('de''nl')、('de''it''it''en')、('it''nl')、('it''de')、('it''ro')、('ro''en')、('ro''nl')、('ro''de')、('ro''it'),默认值:'de''en')。
- **num_samples** (int, 可选) - 指定从数据集中读取的样本数。 - **num_samples** (int, 可选) - 指定从数据集中读取的样本数。
- **shuffle** (Union[bool, Shuffle], 可选) - 每个epoch中数据混洗的模式支持传入bool类型与枚举类型进行指定默认值mindspore.dataset.Shuffle.GLOBAL。 - **shuffle** (Union[bool, Shuffle], 可选) - 每个epoch中数据混洗的模式支持传入bool类型与枚举类型进行指定默认值mindspore.dataset.Shuffle.GLOBAL。
如果 `shuffle` 为False则不混洗如果 `shuffle` 为True等同于将 `shuffle` 设置为mindspore.dataset.Shuffle.GLOBAL。 如果 `shuffle` 为False则不混洗如果 `shuffle` 为True等同于将 `shuffle` 设置为mindspore.dataset.Shuffle.GLOBAL。

View File

@ -7,7 +7,7 @@
建议通过继承这个基类来实现自定义Dataset并重写相应的方法`process``save``load` ,可参考 `ArgoverseDataset` 源码。自定义Dataset的初始化过程如下首先检查在给定的 `data_dir` 中是否已经有处理好的数据,如果是则调用 `load` 方法直接加载它,否则将调用 `process` 方法创建图,并调用 `save` 方法将图保存到 `save_dir` 建议通过继承这个基类来实现自定义Dataset并重写相应的方法`process``save``load` ,可参考 `ArgoverseDataset` 源码。自定义Dataset的初始化过程如下首先检查在给定的 `data_dir` 中是否已经有处理好的数据,如果是则调用 `load` 方法直接加载它,否则将调用 `process` 方法创建图,并调用 `save` 方法将图保存到 `save_dir`
可以访问所创建dataset中的图并使用例如 `graphs = my_dataset.graphs`也可以迭代dataset对象如 `my_dataset.create_tuple_iterator()` 来获取数据(这时需要实现 `__getitem__` 和 `__len__`)方法,具体请参考以下示例。注意:内部逻辑指定了 `__new__` 阶段会重新初始化 `__init__` ,如果自定义图实现了 `__new__` 方法,该方法将失效。 可以访问所创建dataset中的图并使用例如 `graphs = my_dataset.graphs`也可以迭代dataset对象如 `my_dataset.create_tuple_iterator()` 来获取数据(这时需要实现 `__getitem__` 和 `__len__`方法,具体请参考以下示例。注意:内部逻辑指定了 `__new__` 阶段会重新初始化 `__init__` ,如果自定义图实现了 `__new__` 方法,该方法将失效。
参数: 参数:
- **data_dir** (str) - 加载数据集的目录,这里包含原始格式的数据,并将在 `process` 方法中被加载。 - **data_dir** (str) - 加载数据集的目录,这里包含原始格式的数据,并将在 `process` 方法中被加载。

View File

@ -25,7 +25,7 @@ mindspore.dataset.vision.Pad
.. note::`padding` 输入长度为2的序列时的行为未来将从使用第一个值填充左/上边界,使用第二个值填充右/下边界,变为使用第一个值填充左/右边界,使用第二个值填充上/下边界。你也可以直接输入长度为4的序列来分别指定左、上、右和下边界的填充长度。 .. note::`padding` 输入长度为2的序列时的行为未来将从使用第一个值填充左/上边界,使用第二个值填充右/下边界,变为使用第一个值填充左/右边界,使用第二个值填充上/下边界。你也可以直接输入长度为4的序列来分别指定左、上、右和下边界的填充长度。
异常: 异常:
- **TypeError** - 如果 `padding` 不是int或Sequence[int, int], Sequence[int, int, int, int]]类型。 - **TypeError** - 如果 `padding` 不是int或Sequence[int, int], Sequence[int, int, int, int]类型。
- **TypeError** - 如果 `fill_value` 不是int或tuple[int]类型。 - **TypeError** - 如果 `fill_value` 不是int或tuple[int]类型。
- **TypeError** - 如果 `padding_mode` 不是 :class:`mindspore.dataset.vision.Border` 的类型。 - **TypeError** - 如果 `padding_mode` 不是 :class:`mindspore.dataset.vision.Border` 的类型。
- **ValueError** - 如果 `padding` 为负数。 - **ValueError** - 如果 `padding` 为负数。

View File

@ -15,7 +15,7 @@ mindspore.Tensor.norm
- **epsilon** (float) - 用于保持数据稳定性的常量。默认值1e-12。 - **epsilon** (float) - 用于保持数据稳定性的常量。默认值1e-12。
返回: 返回:
Tensor其数据类型与当前Tensor相同其维度信息取决于 `axis` 轴以及参数 `keep_dims` 。例如如果输入的大小为 `(2,3,4)` 轴为 `[0,1]` ,输出的维度为 `(4)` Tensor其数据类型与当前Tensor相同其维度信息取决于 `axis` 轴以及参数 `keep_dims` 。例如如果输入的大小为 `(2,3,4)` 轴为 `[0,1]` ,输出的维度为 `(4,)`
异常: 异常:
- **TypeError** - 当前Tensor的数据类型不是float16或者float32。 - **TypeError** - 当前Tensor的数据类型不是float16或者float32。
@ -24,5 +24,5 @@ mindspore.Tensor.norm
- **TypeError** - `axis` 是tuple或者list但其元素不是int。 - **TypeError** - `axis` 是tuple或者list但其元素不是int。
- **TypeError** - `keep_dims` 不是bool。 - **TypeError** - `keep_dims` 不是bool。
- **TypeError** - `epsilon` 不是float。 - **TypeError** - `epsilon` 不是float。
- **ValueError** - `axis` 的元素超出范围 `[-len(input_x.shape, len(input_x.shape)]` ,其中 `input_x` 指当前Tensor。 - **ValueError** - `axis` 的元素超出范围 `(-len(input_x.shape), len(input_x.shape))` ,其中 `input_x` 指当前Tensor。
- **ValueError** - `axis` 的维度rank大于当前Tensor的维度rank。 - **ValueError** - `axis` 的维度rank大于当前Tensor的维度rank。

View File

@ -11,7 +11,7 @@ mindspore.export
参数: 参数:
- **net** (Cell) - MindSpore网络结构。 - **net** (Cell) - MindSpore网络结构。
- **inputs** (Union[Tensor, Dasaset, List, Tuple, Number, Bool) - 网络的输入,如果网络有多个输入,需要一同传入。当传入的类型为 `Dataset`将会把数据预处理行为同步保存起来。需要手动调整batch的大小当前仅支持获取 `Dataset``image` 列。 - **inputs** (Union[Tensor, Dasaset, List, Tuple, Number, Bool]) - 网络的输入,如果网络有多个输入,需要一同传入。当传入的类型为 `Dataset`将会把数据预处理行为同步保存起来。需要手动调整batch的大小当前仅支持获取 `Dataset``image` 列。
- **file_name** (str) - 导出模型的文件名称。 - **file_name** (str) - 导出模型的文件名称。
- **file_format** (str) - MindSpore目前支持导出"AIR""ONNX"和"MINDIR"格式的模型。 - **file_format** (str) - MindSpore目前支持导出"AIR""ONNX"和"MINDIR"格式的模型。

View File

@ -11,7 +11,7 @@ mindspore.nn.SSIM
l(x,y)&=\frac{2\mu_x\mu_y+C_1}{\mu_x^2+\mu_y^2+C_1}, C_1=(K_1L)^2.\\ l(x,y)&=\frac{2\mu_x\mu_y+C_1}{\mu_x^2+\mu_y^2+C_1}, C_1=(K_1L)^2.\\
c(x,y)&=\frac{2\sigma_x\sigma_y+C_2}{\sigma_x^2+\sigma_y^2+C_2}, C_2=(K_2L)^2.\\ c(x,y)&=\frac{2\sigma_x\sigma_y+C_2}{\sigma_x^2+\sigma_y^2+C_2}, C_2=(K_2L)^2.\\
s(x,y)&=\frac{\sigma_{xy}+C_3}{\sigma_x\sigma_y+C_3}, C_3=C_2/2.\\ s(x,y)&=\frac{\sigma_{xy}+C_3}{\sigma_x\sigma_y+C_3}, C_3=C_2/2.\\
SSIM(x,y)&=l*c*s\\&=\frac{(2\mu_x\mu_y+C_1)(2\sigma_{xy}+C_2}{(\mu_x^2+\mu_y^2+C_1)(\sigma_x^2+\sigma_y^2+C_2)}. SSIM(x,y)&=l*c*s\\&=\frac{(2\mu_x\mu_y+C_1)(2\sigma_{xy}+C_2)}{(\mu_x^2+\mu_y^2+C_1)(\sigma_x^2+\sigma_y^2+C_2)}.
参数: 参数:
- **max_val** (Union[int, float]) - 像素值的动态范围即最大值和最小值之间的差值。8bit灰度图像像素为255。默认值1.0。 - **max_val** (Union[int, float]) - 像素值的动态范围即最大值和最小值之间的差值。8bit灰度图像像素为255。默认值1.0。

View File

@ -4,7 +4,7 @@ mindspore.nn.probability.bijector.Invert
.. py:class:: mindspore.nn.probability.bijector.Invert(bijector, name='') .. py:class:: mindspore.nn.probability.bijector.Invert(bijector, name='')
逆映射BijectorInvert Bijector 逆映射BijectorInvert Bijector
计算输入Bijector的逆映射。如果正向映射下面的 `bijector` 输入)对应的映射函数为 :math:`Y = g(X)` 那么对应的逆映射Bijector的映射函数为 :math:`Y = h(X) = g^{-1}(X)` 计算输入Bijector的逆映射。如果正向映射下面的 `bijector` 输入对应的映射函数为 :math:`Y = g(X)` 那么对应的逆映射Bijector的映射函数为 :math:`Y = h(X) = g^{-1}(X)`
参数: 参数:
- **bijector** (Bijector) - 基础BijectorBase Bijector - **bijector** (Bijector) - 基础BijectorBase Bijector

View File

@ -9,7 +9,7 @@ mindspore.nn.probability.distribution.Poisson
.. math:: .. math::
P(X = k) = \lambda^k \exp(-\lambda) / k!, k = 1, 2, ... P(X = k) = \lambda^k \exp(-\lambda) / k!, k = 1, 2, ...
其中 :math:`\lambda` 为率参数rate)。 其中 :math:`\lambda` 为率参数(rate)。
参数: 参数:
- **rate** (int, float, list, numpy.ndarray, Tensor) - 泊松分布的率参数。默认值None。 - **rate** (int, float, list, numpy.ndarray, Tensor) - 泊松分布的率参数。默认值None。

View File

@ -19,7 +19,7 @@ mindspore.ops.BatchNorm
参数: 参数:
- **is_training** (bool) - 如果 `is_training` 为True则在训练期间计算 `mean``variance`。如果 `is_training` 为False则在推理期间从checkpoint加载。默认值False。 - **is_training** (bool) - 如果 `is_training` 为True则在训练期间计算 `mean``variance`。如果 `is_training` 为False则在推理期间从checkpoint加载。默认值False。
- **epsilon** (float) - 添加到分母上的值以确保数值稳定性。默认值1e-5。 - **epsilon** (float) - 添加到分母上的值以确保数值稳定性。默认值1e-5。
- **momentum** (float) - 动态均值和动态方差所使用的动量。(例如 :math:`new\_running\_mean = (1 - momentum) * running\_mean + momentum * current\_mean`)。动量值必须为[0, 1]。默认值0.1。 - **momentum** (float) - 动态均值和动态方差所使用的动量。(例如 :math:`new\_running\_mean = (1 - momentum) * running\_mean + momentum * current\_mean`。动量值必须为[0, 1]。默认值0.1。
- **data_format** (str) - 输入数据格式,可选值有:'NHWC'或'NCHW'。默认值:'NCHW'。 - **data_format** (str) - 输入数据格式,可选值有:'NHWC'或'NCHW'。默认值:'NCHW'。
输入: 输入:

View File

@ -11,7 +11,7 @@ mindspore.ops.Custom
这是一个实验性接口,后续可能删除或修改。 这是一个实验性接口,后续可能删除或修改。
.. note:: .. note::
不同自定义算子的函数类型func_type)支持的平台类型不同。每种类型支持的平台如下: 不同自定义算子的函数类型func_type支持的平台类型不同。每种类型支持的平台如下:
- "hybrid": ["Ascend", "GPU", "CPU"]. - "hybrid": ["Ascend", "GPU", "CPU"].
- "akg": ["Ascend", "GPU", "CPU"]. - "akg": ["Ascend", "GPU", "CPU"].

View File

@ -13,7 +13,7 @@ mindspore.ops.LayerNorm
其中 :math:`\gamma` 是Scalar :math:`\beta` 是偏置项, :math:`\epsilon` 是精度值。 其中 :math:`\gamma` 是Scalar :math:`\beta` 是偏置项, :math:`\epsilon` 是精度值。
参数: 参数:
- **begin_norm_axis** (int) - 指定 `input_x` 需进行层归一化的起始维度,其值必须在[-1, rank(input)范围内。默认值1。 - **begin_norm_axis** (int) - 指定 `input_x` 需进行层归一化的起始维度,其值必须在[-1, rank(input))范围内。默认值1。
- **begin_params_axis** (int) - 指定输入参数(`gamma`, `beta`) 需进行层归一化的开始轴,其值必须在[-1, rank(input))范围内。默认值1。 - **begin_params_axis** (int) - 指定输入参数(`gamma`, `beta`) 需进行层归一化的开始轴,其值必须在[-1, rank(input))范围内。默认值1。
- **epsilon** (float) - 添加到分母中的值以确保数据稳定性。默认值1e-7。 - **epsilon** (float) - 添加到分母中的值以确保数据稳定性。默认值1e-7。

View File

@ -20,7 +20,7 @@ mindspore.ops.MirrorPad
- 如果设置 `mode` 为"REFLECT",将使用对称轴对称复制的方式来进行填充。 - 如果设置 `mode` 为"REFLECT",将使用对称轴对称复制的方式来进行填充。
如果 `input_x` 为[[1,2,3][4,5,6][7,8,9]] `paddings` 为[[1,1], [2,2]],则输出为[[6,5,4,5,6,5,4][3,2,1,2,3,2,1][6,5,4,5,6,5,4][9,8,7,8,9,8,7][6,5,4,5,6,5,4]]。 如果 `input_x` 为[[1,2,3][4,5,6][7,8,9]] `paddings` 为[[1,1], [2,2]],则输出为[[6,5,4,5,6,5,4][3,2,1,2,3,2,1][6,5,4,5,6,5,4][9,8,7,8,9,8,7][6,5,4,5,6,5,4]]。
更直观的理解请参见下面的样例。 更直观的理解请参见下面的样例。
- 如果 `mode` 为"SYMMETRIC",则填充方法类似于"REFLECT"。它也会根据对称轴复制,但是也包括对称轴。如果 `input_x` 为[[1,2,3],[4,5,6],[7,8,9]]] `paddings` 为[[1,1], [2,2]],则输出为[[2,1,1,2,3,3,2][2,1,1,2,3,3,2][5,4,4,5,6,6,5][8,7,7,8,9,9,8][8,7,7,8,9,9,8]]。 - 如果 `mode` 为"SYMMETRIC",则填充方法类似于"REFLECT"。它也会根据对称轴复制,但是也包括对称轴。如果 `input_x` 为[[1,2,3],[4,5,6],[7,8,9]] `paddings` 为[[1,1], [2,2]],则输出为[[2,1,1,2,3,3,2][2,1,1,2,3,3,2][5,4,4,5,6,6,5][8,7,7,8,9,9,8][8,7,7,8,9,9,8]]。
更直观的理解请参见下面的样例。 更直观的理解请参见下面的样例。
异常: 异常:

View File

@ -9,7 +9,7 @@ mindspore.ops.ReverseV2
"axis"的取值范围为[-dims, dims - 1]"dims"表示"input_x"的维度长度。 "axis"的取值范围为[-dims, dims - 1]"dims"表示"input_x"的维度长度。
参数: 参数:
- **axis** (Union[tuple(int), list(int)) - 指定反转的轴。 - **axis** (Union[tuple(int), list(int)]) - 指定反转的轴。
输入: 输入:
- **input_x** (Tensor) - 输入需反转的任意维度的Tensor。数据类型为数值型不包括float64。shape :math:`(N, *)` ,其中 :math:`*` 表示任意数量的附加维度。 - **input_x** (Tensor) - 输入需反转的任意维度的Tensor。数据类型为数值型不包括float64。shape :math:`(N, *)` ,其中 :math:`*` 表示任意数量的附加维度。

View File

@ -20,7 +20,7 @@ mindspore.ops.SpaceToDepth
- **x** (Tensor) - 4维Tensor。数据类型为Number。 - **x** (Tensor) - 4维Tensor。数据类型为Number。
输出: 输出:
4维Tensor数据类型与 `x` 相同shape :math:`(N,(C_{in} * \text{block_size} * 2), H_{in} / \text{block_size}, W_{in} / \text{block_size}` 。 4维Tensor数据类型与 `x` 相同shape :math:`(N,(C_{in} * \text{block_size} * 2), H_{in} / \text{block_size}, W_{in} / \text{block_size})` 。
异常: 异常:
- **TypeError** - `block_size` 不是int类型。 - **TypeError** - `block_size` 不是int类型。

View File

@ -9,7 +9,7 @@
给定一个 `input_x[m1, m2, ...、mn]``begin``end``strides` 是长度为n的向量。 给定一个 `input_x[m1, m2, ...、mn]``begin``end``strides` 是长度为n的向量。
在每个掩码字段中(`begin_mask``end_mask``ellipsis_mask``new_axis_mask``shrink_axis_mask`)第i位将对应于第i个m。 在每个掩码字段中(`begin_mask``end_mask``ellipsis_mask``new_axis_mask``shrink_axis_mask`第i位将对应于第i个m。
对于每个特定的mask内部先将其转化为二进制表示 然后倒序排布后进行计算。比如说对于一个5*6*7的Tensormask设置为3 3转化为二进制表示为ob011 倒序 对于每个特定的mask内部先将其转化为二进制表示 然后倒序排布后进行计算。比如说对于一个5*6*7的Tensormask设置为3 3转化为二进制表示为ob011 倒序
后为ob110 则该mask只在第0维和第1维产生作用 下面各自举例说明。 后为ob110 则该mask只在第0维和第1维产生作用 下面各自举例说明。

View File

@ -26,5 +26,5 @@ mindspore.ops.norm
- **TypeError** - `axis` 是tuple或者list但其元素不是int。 - **TypeError** - `axis` 是tuple或者list但其元素不是int。
- **TypeError** - `keep_dims` 不是bool。 - **TypeError** - `keep_dims` 不是bool。
- **TypeError** - `epsilon` 不是float。 - **TypeError** - `epsilon` 不是float。
- **ValueError** - `axis` 的元素超出范围 `[-len(input_x.shape, len(input_x.shape)]` ,其中 `input_x` 指当前Tensor 。 - **ValueError** - `axis` 的元素超出范围 `(-len(input_x.shape), len(input_x.shape))` ,其中 `input_x` 指当前Tensor 。
- **ValueError** - `axis` 的维度rank大于当前Tensor的维度rank。 - **ValueError** - `axis` 的维度rank大于当前Tensor的维度rank。

View File

@ -9,7 +9,7 @@ mindspore.ops.sparse_concat
实验特性接口目前只支持CPU。 实验特性接口目前只支持CPU。
参数: 参数:
- **sp_input** (Union[list(COOTensor), tuple(COOTensor)) - 输入的需要concat合并的稀疏张量。 - **sp_input** (Union[list(COOTensor), tuple(COOTensor)]) - 输入的需要concat合并的稀疏张量。
- **concat_dim** (标量) - 指定需要合并的轴序号, 它的取值必须是在[-rank, rank)之内, - **concat_dim** (标量) - 指定需要合并的轴序号, 它的取值必须是在[-rank, rank)之内,
其中rank为sp_input中COOTensor的shape的维度值。缺省值为0。 其中rank为sp_input中COOTensor的shape的维度值。缺省值为0。

View File

@ -9,7 +9,7 @@
两个输入中选定的维度必须相互匹配。 两个输入中选定的维度必须相互匹配。
axes = 0为外积。axes = 1为普通矩阵乘法输入是2维的。axes = 1与axes = ((1,),(0,)相同,其中 `a``b` 都是2维的。axes = 2与axes = ((1,2),(0,1))相同,其中 `a``b` 都是3维的。 axes = 0为外积。axes = 1为普通矩阵乘法输入是2维的。axes = 1与axes = ((1,),(0,))相同,其中 `a``b` 都是2维的。axes = 2与axes = ((1,2),(0,1))相同,其中 `a``b` 都是3维的。
参数: 参数:
- **x1** (Tensor) - tensor_dot的第一个输入Tensor其数据类型为float16或float32。 - **x1** (Tensor) - tensor_dot的第一个输入Tensor其数据类型为float16或float32。

View File

@ -4,7 +4,7 @@
第一个线性层的权重将在输入维度上被分片,第二个线性层在输出维度上进行切分。总体过程如下: 第一个线性层的权重将在输入维度上被分片,第二个线性层在输出维度上进行切分。总体过程如下:
.. math:: .. math::
Dropout((xW_1+b_1)W_2 + b_2)) Dropout((xW_1+b_1)W_2 + b_2)
其中 :math:`W_1, W_2, b_1`:math:`b_2` 为可训练参数。 其中 :math:`W_1, W_2, b_1`:math:`b_2` 为可训练参数。

View File

@ -41,5 +41,5 @@
- **output** (Tensor) - 如果只有编码器则表示编码器层的输出logit。shape为[batch, src_seq_length, hidden_size] or [batch * src_seq_length, hidden_size]。如果有编码器和解码器则输出来自于解码器层。shape为[batch, tgt_seq_length, hidden_size]或[batch * tgt_seq_length, hidden_size]。 - **output** (Tensor) - 如果只有编码器则表示编码器层的输出logit。shape为[batch, src_seq_length, hidden_size] or [batch * src_seq_length, hidden_size]。如果有编码器和解码器则输出来自于解码器层。shape为[batch, tgt_seq_length, hidden_size]或[batch * tgt_seq_length, hidden_size]。
- **encoder_layer_present** (Tuple) - 大小为num_layers的元组其中每个元组都是shape为((batch_size, num_heads, size_per_head, src_seq_length)或(batch_size, num_heads, src_seq_length, size_per_head))的自注意力中的投影key向量和value向量的tensor的元组。 - **encoder_layer_present** (Tuple) - 大小为num_layers的元组其中每个元组都是shape为((batch_size, num_heads, size_per_head, src_seq_length)或(batch_size, num_heads, src_seq_length, size_per_head))的自注意力中的投影key向量和value向量的tensor的元组。
- **decoder_layer_present** (Tuple) - 大小为num_layers的元组其中每个元组都是shape为((batch_size, num_heads, size_per_head, tgt_seq_length)或(batch_size, num_heads, tgt_seq_length, size_per_head))的自注意力中的投影key向量和value向量的tensor的元组或者是shape为(batch_size, num_heads, size_per_head, src_seq_length)或(batch_size, num_heads, src_seq_length, size_per_head))的交叉注意力中的投影key向量和value向量的tensor的元组。如果未设置解码器返回值将为None。 - **decoder_layer_present** (Tuple) - 大小为num_layers的元组其中每个元组都是shape为((batch_size, num_heads, size_per_head, tgt_seq_length)或(batch_size, num_heads, tgt_seq_length, size_per_head))的自注意力中的投影key向量和value向量的tensor的元组或者是shape为((batch_size, num_heads, size_per_head, src_seq_length)或(batch_size, num_heads, src_seq_length, size_per_head))的交叉注意力中的投影key向量和value向量的tensor的元组。如果未设置解码器返回值将为None。
- **accum_loss** (Tensor) - 表示一个辅助损失来最小化路由到每个专家的数据部分的均方且仅仅在专家数大于1时才会返回。 - **accum_loss** (Tensor) - 表示一个辅助损失来最小化路由到每个专家的数据部分的均方且仅仅在专家数大于1时才会返回。

View File

@ -24,7 +24,7 @@
输入: 输入:
- **hidden_states** (Tensor) - Tensor。如果use_past为False或者is_first_iteration为Trueshape为[batch_size, seq_length, hidden_size]或者[batch_size * seq_length, hidden_size]。否则shape应为[batch_size, 1, hidden_size]。 - **hidden_states** (Tensor) - Tensor。如果use_past为False或者is_first_iteration为Trueshape为[batch_size, seq_length, hidden_size]或者[batch_size * seq_length, hidden_size]。否则shape应为[batch_size, 1, hidden_size]。
- **attention_mask** (Tensor) - Tensor表示shape为[[batch_size, seq_length, seq_length]的注意力掩码。 - **attention_mask** (Tensor) - Tensor表示shape为[batch_size, seq_length, seq_length]的注意力掩码。
- **init_reset** (Tensor) - shape为[1]的bool tensor用于清除增量预测中使用的past key参数和past value参数。仅当use_past为True时有效。默认值为True。 - **init_reset** (Tensor) - shape为[1]的bool tensor用于清除增量预测中使用的past key参数和past value参数。仅当use_past为True时有效。默认值为True。
- **batch_valid_length** (Tensor) - shape为[batch_size]的Int32 tensor表示过去所计算的索引。当use_past为True时它用于增量预测。默认值为None。 - **batch_valid_length** (Tensor) - shape为[batch_size]的Int32 tensor表示过去所计算的索引。当use_past为True时它用于增量预测。默认值为None。

View File

@ -1540,7 +1540,7 @@ class Tensor(Tensor_):
TypeError: If `axis` is a tuple or a list, but the element of `axis` is not an int. TypeError: If `axis` is a tuple or a list, but the element of `axis` is not an int.
TypeError: If `keep_dims` is not a bool. TypeError: If `keep_dims` is not a bool.
TypeError: If `epsilon` is not a float. TypeError: If `epsilon` is not a float.
ValueError: If the element of `axis` is out of the range [-len(input_x.shape), len(input_x.shape)). ValueError: If the element of `axis` is out of the range (-len(input_x.shape), len(input_x.shape)).
input_x refers to self tensor. input_x refers to self tensor.
ValueError: If the length of shape of `axis` is bigger than the length of shape of self tensor. ValueError: If the length of shape of `axis` is bigger than the length of shape of self tensor.

View File

@ -220,7 +220,8 @@ class SSIM(Cell):
l(x,y)&=\frac{2\mu_x\mu_y+C_1}{\mu_x^2+\mu_y^2+C_1}, C_1=(K_1L)^2.\\ l(x,y)&=\frac{2\mu_x\mu_y+C_1}{\mu_x^2+\mu_y^2+C_1}, C_1=(K_1L)^2.\\
c(x,y)&=\frac{2\sigma_x\sigma_y+C_2}{\sigma_x^2+\sigma_y^2+C_2}, C_2=(K_2L)^2.\\ c(x,y)&=\frac{2\sigma_x\sigma_y+C_2}{\sigma_x^2+\sigma_y^2+C_2}, C_2=(K_2L)^2.\\
s(x,y)&=\frac{\sigma_{xy}+C_3}{\sigma_x\sigma_y+C_3}, C_3=C_2/2.\\ s(x,y)&=\frac{\sigma_{xy}+C_3}{\sigma_x\sigma_y+C_3}, C_3=C_2/2.\\
SSIM(x,y)&=l*c*s\\&=\frac{(2\mu_x\mu_y+C_1)(2\sigma_{xy}+C_2}{(\mu_x^2+\mu_y^2+C_1)(\sigma_x^2+\sigma_y^2+C_2)}. SSIM(x,y)&=l*c*s\\&=\frac{(2\mu_x\mu_y+C_1)(2\sigma_{xy}+C_2)}
{(\mu_x^2+\mu_y^2+C_1)(\sigma_x^2+\sigma_y^2+C_2)}.
Args: Args:
max_val (Union[int, float]): The dynamic range of the pixel values (255 for 8-bit grayscale images). max_val (Union[int, float]): The dynamic range of the pixel values (255 for 8-bit grayscale images).

View File

@ -344,7 +344,7 @@ class FeedForward(Cell):
and the second linear is sharded on the output dimension. The overview process can be: and the second linear is sharded on the output dimension. The overview process can be:
.. math:: .. math::
Dropout((xW_1+b_1)W_2 + b_2)) Dropout((xW_1+b_1)W_2 + b_2)
where the :math:`W_1, W_2, b_1` and :math:`b_2` are trainable parameters. where the :math:`W_1, W_2, b_1` and :math:`b_2` are trainable parameters.
@ -2814,7 +2814,7 @@ class Transformer(Cell):
of the projected key and value vector in self attention with shape ((batch_size, num_heads, size_per_head, of the projected key and value vector in self attention with shape ((batch_size, num_heads, size_per_head,
tgt_seq_length), (batch_size, num_heads, tgt_seq_length, size_per_head)), and the tgt_seq_length), (batch_size, num_heads, tgt_seq_length, size_per_head)), and the
projected key and value vector in cross attention with shape projected key and value vector in cross attention with shape
(batch_size, num_heads, size_per_head, src_seq_length), ((batch_size, num_heads, size_per_head, src_seq_length),
(batch_size, num_heads, src_seq_length, size_per_head)). If the decoder is not set, the (batch_size, num_heads, src_seq_length, size_per_head)). If the decoder is not set, the
returned value will be None. returned value will be None.
- **accum_loss** (Tensor) - A Tensor indicates an auxiliary loss to minimize the mean square of the data - **accum_loss** (Tensor) - A Tensor indicates an auxiliary loss to minimize the mean square of the data

View File

@ -4685,7 +4685,7 @@ def norm(input_x, axis, p=2, keep_dims=False, epsilon=1e-12):
TypeError: If `axis` is a tuple or a list, but the element of `axis` is not an int. TypeError: If `axis` is a tuple or a list, but the element of `axis` is not an int.
TypeError: If `keep_dims` is not a bool. TypeError: If `keep_dims` is not a bool.
TypeError: If `epsilon` is not a float. TypeError: If `epsilon` is not a float.
ValueError: If the element of `axis` is out of the range [-len(input.shape), len(input.shape)). ValueError: If the element of `axis` is out of the range (-len(input.shape), len(input.shape)).
ValueError: If the length of shape of `axis` is bigger than the length of shape of `input`. ValueError: If the length of shape of `axis` is bigger than the length of shape of `input`.
Supported Platforms: Supported Platforms:

View File

@ -3008,7 +3008,7 @@ class ReverseV2(Primitive):
The value range of "axis" is [-dims, dims - 1]. "dims" is the dimension length of "input_x". The value range of "axis" is [-dims, dims - 1]. "dims" is the dimension length of "input_x".
Args: Args:
axis (Union[tuple(int), list(int)): The indices of the dimensions to reverse. axis (Union[tuple(int), list(int)]): The indices of the dimensions to reverse.
Inputs: Inputs:
- **input_x** (Tensor) - The target tensor. The data type is Number except float64. - **input_x** (Tensor) - The target tensor. The data type is Number except float64.