fix release note, fix F and P

This commit is contained in:
luojianing 2022-08-25 13:09:13 +08:00
parent b66f06efd6
commit b709667626
8 changed files with 169 additions and 31 deletions

View File

@ -2,6 +2,76 @@
[查看中文](./RELEASE_CN.md)
# MindSpore 1.8.1
## MindSpore 1.8.1 Release Notes
### API Change
#### operator
- [STABLE] Add GPU and CPU support for ops.ApplyAdagradDA.
- [STABLE] Add CPU support for ops.ApplyAdagradV2.
- [STABLE] Add Ascend dynamic shape support for ops.ApplyCenteredRmsProp.
- [STABLE] Add CPU support for ops.ApplyFtrl.
- [STABLE] Add CPU support for ops.ApplyGradientDescent.
- [STABLE] Add CPU support for ops.ApplyPowerSign.
- [STABLE] Add GPU and CPU support for ops.ApplyProximalAdagrad.
- [STABLE] Add Ascend dynamic shape support for ops.ApplyRmsProp.
- [STABLE] Add functional interface for ops.max.
- [STABLE] Add functional interface for ops.atan2.
- [STABLE] Add GPU support for ops.cummax.
- [STABLE] Add GPU and CPU support for ops.cummin.
- [STABLE] Add GPU support for ops.diag.
- [STABLE] Add functional interface for ops.expand_dims.
- [STABLE] Add functional interface for ops.gather_elements.
- [STABLE] Add GPU support for ops.grid_sample.
- [STABLE] Add Ascend support for ops.hardswish.
- [BETA] Add GPU support for ops.index_fill.
- [BETA] Add CPU support for ops.inplace_update.
- [BETA] Add GPU support for nn.InstanceNorm1d.
- [BETA] Add GPU support for nn.InstanceNorm2d.
- [BETA] Add GPU support for nn.InstanceNorm3d.
- [STABLE] Add functional interface for ops.log1p.
- [STABLE] Add GPU and CPU support for ops.masked_fill.
- [BETA] Add GPU support for ops.matrix_diag_part.
- [BETA] Add GPU support for ops.matrix_diag.
- [BETA] Add GPU support for ops.matrix_set_diag.
- [STABLE] Add GPU support for ops.max_pool3d.
- [STABLE] Add functional interface for ops.nll_loss.
- [STABLE] Add functional interface for ops.one_hot.
- [STABLE] Add functional interface for ops.pad.
- [STABLE] Add CPU support for ops.random_gamma.
- [STABLE] Add functional interface for ops.amax.
- [STABLE] Add functional interface for ops.mean.
- [STABLE] Add functional interface for ops.amin.
- [STABLE] Add functional interface for ops.prod.
- [STABLE] Add Ascend, GPU, and CPU support for ops.renorm.
- [BETA] Add Ascend, GPU, and CPU support for ops.tensor_scatter_elements.
- [STABLE] Add GPU support for ops.scatter_max.
- [STABLE] Add GPU support for ops.scatter_min.
- [STABLE] Add functional interface for ops.scatter_nd.
- [STABLE] Add GPU support for ops.scatter_nd_max.
- [STABLE] Add functional interface for ops.scatter_update.
- [STABLE] Add CPU support for ops.binary_cross_entropy_with_logits.
- [STABLE] Add functional interface for ops.smooth_l1_loss.
- [STABLE] Add CPU support for ops.space_to_batch_nd.
- [STABLE] Add GPU and CPU support for ops.SparseApplyAdagrad.
- [STABLE] Add GPU and CPU support for ops.sparse_segment_mean.
- [STABLE] Add functional interface for ops.squeeze.
- [STABLE] Add CPU support for ops.standard_laplace.
- [BETA] Add Ascend, GPU, and CPU support for nn.ReflectionPad1d.
- [BETA] Add Ascend, GPU, and CPU support for nn.ReflectionPad2d.
- [STABLE] Add Ascend, GPU, and CPU support for nn.SiLU.
- [STABLE] Add functional interface for ops.transpose.
- [STABLE] Add CPU support for ops.uniform_candidate_sampler.
- [STABLE] Add functional interface for ops.uniform.
- [STABLE] Add GPU support for ops.unique_with_pad.
- [STABLE] Add functional interface for ops.unstack.
- [BETA] Add GPU and CPU support for ops.interpolate.
- [STABLE] Add CPU support for ops.xdivy.
- [STABLE] Add CPU support for ops.xlogy.
# MindSpore 1.8.0
## MindSpore 1.8.0 Release Notes

View File

@ -2,6 +2,76 @@
[View English](./RELEASE.md)
# MindSpore 1.8.1
## MindSpore 1.8.1 Release Notes
### API变更
#### 算子
- [STABLE] ops.ApplyAdagradDA 新增GPU、CPU支持。
- [STABLE] ops.ApplyAdagradV2 新增CPU支持。
- [STABLE] ops.ApplyCenteredRmsProp 新增Ascend动态shape支持。
- [STABLE] ops.ApplyFtrl 新增CPU支持。
- [STABLE] ops.ApplyGradientDescent 新增CPU支持。
- [STABLE] ops.ApplyPowerSign 新增CPU支持。
- [STABLE] ops.ApplyProximalAdagrad 新增GPU、CPU支持。
- [STABLE] ops.ApplyRmsProp 新增Ascend动态shape支持。
- [STABLE] ops.max 新增functional接口。
- [STABLE] ops.atan2 新增functional接口。
- [STABLE] ops.cummax 新增GPU支持。
- [STABLE] ops.cummin 新增GPU、CPU支持。
- [STABLE] ops.diag 新增GPU支持。
- [STABLE] ops.expand_dims 新增functional接口。
- [STABLE] ops.gather_elements 新增functional接口。
- [STABLE] ops.grid_sample 新增GPU支持。
- [STABLE] ops.hardswish 新增Ascend支持。
- [BETA] ops.index_fill 新增GPU支持。
- [BETA] ops.inplace_update 新增CPU支持。
- [BETA] nn.InstanceNorm1d 新增GPU支持。
- [BETA] nn.InstanceNorm2d 新增GPU支持。
- [BETA] nn.InstanceNorm3d 新增GPU支持。
- [STABLE] ops.log1p 新增functional接口。
- [STABLE] ops.masked_fill 新增GPU、CPU支持。
- [BETA] ops.matrix_diag_part 新增GPU支持。
- [BETA] ops.matrix_diag 新增GPU支持。
- [BETA] ops.matrix_set_diag 新增GPU支持。
- [STABLE] ops.max_pool3d 新增GPU支持。
- [STABLE] ops.nll_loss 新增functional接口。
- [STABLE] ops.one_hot 新增functional接口。
- [STABLE] ops.pad 新增functional接口。
- [STABLE] ops.random_gamma 新增CPU支持。
- [STABLE] ops.amax 新增functional接口。
- [STABLE] ops.mean 新增functional接口。
- [STABLE] ops.amin 新增functional接口。
- [STABLE] ops.prod 新增functional接口。
- [STABLE] ops.renorm 新增Ascend、GPU、CPU支持。
- [BETA] ops.tensor_scatter_elements 新增Ascend、GPU、CPU支持。
- [STABLE] ops.scatter_max 新增GPU支持。
- [STABLE] ops.scatter_min 新增GPU支持。
- [STABLE] ops.scatter_nd 新增functional接口。
- [STABLE] ops.scatter_nd_max 新增GPU支持。
- [STABLE] ops.scatter_update 新增functional接口。
- [STABLE] ops.binary_cross_entropy_with_logits 新增CPU支持。
- [STABLE] ops.smooth_l1_loss 新增functional接口。
- [STABLE] ops.space_to_batch_nd 新增CPU支持。
- [STABLE] ops.SparseApplyAdagrad 新增GPU、CPU支持。
- [STABLE] ops.sparse_segment_mean 新增GPU、CPU支持。
- [STABLE] ops.squeeze 新增functional接口。
- [STABLE] ops.standard_laplace 新增CPU支持。
- [BETA] nn.ReflectionPad1d 新增Ascend、GPU、CPU支持。
- [BETA] nn.ReflectionPad2d 新增Ascend、GPU、CPU支持。
- [STABLE] nn.SiLU 新增Ascend、GPU、CPU支持。
- [STABLE] ops.transpose 新增functional接口。
- [STABLE] ops.uniform_candidate_sampler 新增CPU支持。
- [STABLE] ops.uniform 新增functional接口。
- [STABLE] ops.unique_with_pad 新增GPU支持。
- [STABLE] ops.unstack 新增functional接口。
- [BETA] ops.interpolate 新增GPU、CPU支持。
- [STABLE] ops.xdivy 新增CPU支持。
- [STABLE] ops.xlogy 新增CPU支持。
# MindSpore 1.8.0
## MindSpore 1.8.0 Release Notes

View File

@ -15,15 +15,15 @@
对于5*6*7的Tensor `x[2:,:3,:]` 等同于 `x[2:5,0:3,0:7]`
如果设置了 `elipsis_mask` 的第i位则将在其他维度之间插入所需的任意数量的未指定维度。 `ellipsis_mask` 中只允许一个非零位。
如果设置了 `ellipsis_mask` 的第i位则将在其他维度之间插入所需的任意数量的未指定维度。 `ellipsis_mask` 中只允许一个非零位。
对于5*6*7*8的Tensor `x[2:,...,:6]` 等同于 `x[2:5,:,:,0:6]``x[2:,...]` 等同于 `x[2:5,:,:,:]`
如果设置了 `new_ax_mask` 的第i位则忽略 `begin``end``strides` 并在输出Tensor的指定位置添加新的长度为1的维度。
如果设置了 `new_axis_mask` 的第i位则忽略 `begin``end``strides` 并在输出Tensor的指定位置添加新的长度为1的维度。
对于5*6*7的Tensor `x[:2, newaxis, :6]` 将产生一个shape为 :math:`(2, 1, 7)` 的Tensor。
如果设置了 `shrink_ax_mask` 的第i位则第i个大小将维度收缩1并忽略 `begin[i]``end[i]``strides[i]` 索引处的值。
如果设置了 `shrink_axis_mask` 的第i位则第i个大小将维度收缩1并忽略 `begin[i]``end[i]``strides[i]` 索引处的值。
对于5*6*7的Tensor `x[:, 5, :]` 将使得 `shrink_axis_mask` 等于4。
@ -34,7 +34,7 @@
- **begin_mask** (int) - 表示切片的起始索引。使用二进制flag对输入Tensor不同维度进行标志第i位设置为1则begin[i]参数对应的第i维度设置无效表示该维度的起始索引从0开始。默认值0。
- **end_mask** (int) - 表示切片的结束索引。功能类似begin_mask。使用二进制flag对输入Tensor不同维度进行标志第i位设置为1则end参数对应的该维度设置无效表示该维度切分的结束索引到列表最后即切分到尽可能大的维度。默认值0。
- **ellipsis_mask** (int) - 不为0的维度不需要进行切片操作。为int型掩码。默认值0。
- **new_axis_mask** (int) - 如果第i位出现1则begin、end、stride对所有维度参数无效并在第1位上增加一个大小为1的维度。为int型掩码。默认值0。
- **new_axis_mask** (int) - 如果第i位出现1则begin、end、stride对所有维度参数无效并在第i位上增加一个大小为1的维度。为int型掩码。默认值0。
- **shrink_axis_mask** (int) - 如果第i位设置为1则意味着第i维度缩小为1。为int型掩码。默认值0。
输入:

View File

@ -3,7 +3,7 @@ mindspore.ops.gamma
.. py:function:: mindspore.ops.gamma(shape, alpha, beta, seed=None)
根据伽马分布生成随机数。
根据伽马分布生成随机数。
参数:
- **shape** (tuple) - 指定生成随机数的shape。任意维度的Tensor。

View File

@ -58,10 +58,10 @@ def random_gamma(shape, alpha, seed=0, seed2=0):
Examples:
>>> import numpy as np
>>> from mindspore.ops import functional as F
>>> from mindspore import ops
>>> shape = Tensor(np.array([7, 5]), mindspore.int32)
>>> alpha = Tensor(np.array([0.5, 1.5]), mindspore.float32)
>>> output = F.random_gamma(shape, alpha, seed=5)
>>> output = ops.random_gamma(shape, alpha, seed=5)
>>> result = output.shape
>>> print(result)
(7, 5, 2)

View File

@ -171,14 +171,14 @@ def narrow(inputs, axis, start, length):
Examples:
>>> import mindspore
>>> from mindspore.ops import functional as F
>>> from mindspore import ops
>>> from mindspore import Tensor
>>> x = Tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]], mindspore.int32)
>>> output = F.narrow(x, 0, 0, 2)
>>> output = ops.narrow(x, 0, 0, 2)
>>> print(output)
[[ 1 2 3]
[ 4 5 6]]
>>> output = F.narrow(x, 1, 1, 2)
>>> output = ops.narrow(x, 1, 1, 2)
>>> print(output)
[[ 2 3]
[ 5 6]

View File

@ -4238,27 +4238,26 @@ class NPUGetFloatStatus(PrimitiveWithInfer):
Examples:
>>> import numpy as np
>>> import mindspore.nn as nn
>>> import mindspore.ops.functional as F
>>> from mindspore import ops
>>> from mindspore.common import dtype as mstype
>>> from mindspore.common.tensor import Tensor
>>> from mindspore.ops import operations as P
>>> class Net(nn.Cell):
... def __init__(self):
... super().__init__()
... self.alloc_status = P.NPUAllocFloatStatus()
... self.get_status = P.NPUGetFloatStatus()
... self.clear_status = P.NPUClearFloatStatus()
... self.sub = P.Sub()
... self.neg = P.Neg()
... self.alloc_status = ops.NPUAllocFloatStatus()
... self.get_status = ops.NPUGetFloatStatus()
... self.clear_status = ops.NPUClearFloatStatus()
... self.sub = ops.Sub()
... self.neg = ops.Neg()
...
... def construct(self, x):
... init = self.alloc_status()
... clear_status = self.clear_status(init)
... x = F.depend(x, clear_status)
... x = ops.depend(x, clear_status)
... res = self.sub(x, self.neg(x))
... init = F.depend(init, res)
... init = ops.depend(init, res)
... get_status = self.get_status(init)
... res = F.depend(res, get_status)
... res = ops.depend(res, get_status)
... return res
>>>
>>> value = 5
@ -4312,27 +4311,26 @@ class NPUClearFloatStatus(PrimitiveWithInfer):
Examples:
>>> import numpy as np
>>> import mindspore.nn as nn
>>> import mindspore.ops.functional as F
>>> from mindspore import ops
>>> from mindspore.common import dtype as mstype
>>> from mindspore.common.tensor import Tensor
>>> from mindspore.ops import operations as P
>>> class Net(nn.Cell):
... def __init__(self):
... super().__init__()
... self.alloc_status = P.NPUAllocFloatStatus()
... self.get_status = P.NPUGetFloatStatus()
... self.clear_status = P.NPUClearFloatStatus()
... self.sub = P.Sub()
... self.neg = P.Neg()
... self.alloc_status = ops.NPUAllocFloatStatus()
... self.get_status = ops.NPUGetFloatStatus()
... self.clear_status = ops.NPUClearFloatStatus()
... self.sub = ops.Sub()
... self.neg = ops.Neg()
...
... def construct(self, x):
... init = self.alloc_status()
... clear_status = self.clear_status(init)
... x = F.depend(x, clear_status)
... x = ops.depend(x, clear_status)
... res = self.sub(x, self.neg(x))
... init = F.depend(init, res)
... init = ops.depend(init, res)
... get_status = self.get_status(init)
... res = F.depend(res, get_status)
... res = ops.depend(res, get_status)
... return res
>>>
>>> value = 5

View File

@ -6627,7 +6627,7 @@ class ApplyGradientDescent(Primitive):
RuntimeError: If the data type of `var` and `delta` conversion of Parameter is not supported.
Supported Platforms:
``Ascend`` ``GPU``
``Ascend`` ``GPU`` ``CPU``
Examples:
>>> class Net(nn.Cell):