forked from mindspore-Ecosystem/mindspore
fix release note, fix F and P
This commit is contained in:
parent
b66f06efd6
commit
b709667626
70
RELEASE.md
70
RELEASE.md
|
@ -2,6 +2,76 @@
|
|||
|
||||
[查看中文](./RELEASE_CN.md)
|
||||
|
||||
# MindSpore 1.8.1
|
||||
|
||||
## MindSpore 1.8.1 Release Notes
|
||||
|
||||
### API Change
|
||||
|
||||
#### operator
|
||||
|
||||
- [STABLE] Add GPU and CPU support for ops.ApplyAdagradDA.
|
||||
- [STABLE] Add CPU support for ops.ApplyAdagradV2.
|
||||
- [STABLE] Add Ascend dynamic shape support for ops.ApplyCenteredRmsProp.
|
||||
- [STABLE] Add CPU support for ops.ApplyFtrl.
|
||||
- [STABLE] Add CPU support for ops.ApplyGradientDescent.
|
||||
- [STABLE] Add CPU support for ops.ApplyPowerSign.
|
||||
- [STABLE] Add GPU and CPU support for ops.ApplyProximalAdagrad.
|
||||
- [STABLE] Add Ascend dynamic shape support for ops.ApplyRmsProp.
|
||||
- [STABLE] Add functional interface for ops.max.
|
||||
- [STABLE] Add functional interface for ops.atan2.
|
||||
- [STABLE] Add GPU support for ops.cummax.
|
||||
- [STABLE] Add GPU and CPU support for ops.cummin.
|
||||
- [STABLE] Add GPU support for ops.diag.
|
||||
- [STABLE] Add functional interface for ops.expand_dims.
|
||||
- [STABLE] Add functional interface for ops.gather_elements.
|
||||
- [STABLE] Add GPU support for ops.grid_sample.
|
||||
- [STABLE] Add Ascend support for ops.hardswish.
|
||||
- [BETA] Add GPU support for ops.index_fill.
|
||||
- [BETA] Add CPU support for ops.inplace_update.
|
||||
- [BETA] Add GPU support for nn.InstanceNorm1d.
|
||||
- [BETA] Add GPU support for nn.InstanceNorm2d.
|
||||
- [BETA] Add GPU support for nn.InstanceNorm3d.
|
||||
- [STABLE] Add functional interface for ops.log1p.
|
||||
- [STABLE] Add GPU and CPU support for ops.masked_fill.
|
||||
- [BETA] Add GPU support for ops.matrix_diag_part.
|
||||
- [BETA] Add GPU support for ops.matrix_diag.
|
||||
- [BETA] Add GPU support for ops.matrix_set_diag.
|
||||
- [STABLE] Add GPU support for ops.max_pool3d.
|
||||
- [STABLE] Add functional interface for ops.nll_loss.
|
||||
- [STABLE] Add functional interface for ops.one_hot.
|
||||
- [STABLE] Add functional interface for ops.pad.
|
||||
- [STABLE] Add CPU support for ops.random_gamma.
|
||||
- [STABLE] Add functional interface for ops.amax.
|
||||
- [STABLE] Add functional interface for ops.mean.
|
||||
- [STABLE] Add functional interface for ops.amin.
|
||||
- [STABLE] Add functional interface for ops.prod.
|
||||
- [STABLE] Add Ascend, GPU, and CPU support for ops.renorm.
|
||||
- [BETA] Add Ascend, GPU, and CPU support for ops.tensor_scatter_elements.
|
||||
- [STABLE] Add GPU support for ops.scatter_max.
|
||||
- [STABLE] Add GPU support for ops.scatter_min.
|
||||
- [STABLE] Add functional interface for ops.scatter_nd.
|
||||
- [STABLE] Add GPU support for ops.scatter_nd_max.
|
||||
- [STABLE] Add functional interface for ops.scatter_update.
|
||||
- [STABLE] Add CPU support for ops.binary_cross_entropy_with_logits.
|
||||
- [STABLE] Add functional interface for ops.smooth_l1_loss.
|
||||
- [STABLE] Add CPU support for ops.space_to_batch_nd.
|
||||
- [STABLE] Add GPU and CPU support for ops.SparseApplyAdagrad.
|
||||
- [STABLE] Add GPU and CPU support for ops.sparse_segment_mean.
|
||||
- [STABLE] Add functional interface for ops.squeeze.
|
||||
- [STABLE] Add CPU support for ops.standard_laplace.
|
||||
- [BETA] Add Ascend, GPU, and CPU support for nn.ReflectionPad1d.
|
||||
- [BETA] Add Ascend, GPU, and CPU support for nn.ReflectionPad2d.
|
||||
- [STABLE] Add Ascend, GPU, and CPU support for nn.SiLU.
|
||||
- [STABLE] Add functional interface for ops.transpose.
|
||||
- [STABLE] Add CPU support for ops.uniform_candidate_sampler.
|
||||
- [STABLE] Add functional interface for ops.uniform.
|
||||
- [STABLE] Add GPU support for ops.unique_with_pad.
|
||||
- [STABLE] Add functional interface for ops.unstack.
|
||||
- [BETA] Add GPU and CPU support for ops.interpolate.
|
||||
- [STABLE] Add CPU support for ops.xdivy.
|
||||
- [STABLE] Add CPU support for ops.xlogy.
|
||||
|
||||
# MindSpore 1.8.0
|
||||
|
||||
## MindSpore 1.8.0 Release Notes
|
||||
|
|
|
@ -2,6 +2,76 @@
|
|||
|
||||
[View English](./RELEASE.md)
|
||||
|
||||
# MindSpore 1.8.1
|
||||
|
||||
## MindSpore 1.8.1 Release Notes
|
||||
|
||||
### API变更
|
||||
|
||||
#### 算子
|
||||
|
||||
- [STABLE] ops.ApplyAdagradDA 新增GPU、CPU支持。
|
||||
- [STABLE] ops.ApplyAdagradV2 新增CPU支持。
|
||||
- [STABLE] ops.ApplyCenteredRmsProp 新增Ascend动态shape支持。
|
||||
- [STABLE] ops.ApplyFtrl 新增CPU支持。
|
||||
- [STABLE] ops.ApplyGradientDescent 新增CPU支持。
|
||||
- [STABLE] ops.ApplyPowerSign 新增CPU支持。
|
||||
- [STABLE] ops.ApplyProximalAdagrad 新增GPU、CPU支持。
|
||||
- [STABLE] ops.ApplyRmsProp 新增Ascend动态shape支持。
|
||||
- [STABLE] ops.max 新增functional接口。
|
||||
- [STABLE] ops.atan2 新增functional接口。
|
||||
- [STABLE] ops.cummax 新增GPU支持。
|
||||
- [STABLE] ops.cummin 新增GPU、CPU支持。
|
||||
- [STABLE] ops.diag 新增GPU支持。
|
||||
- [STABLE] ops.expand_dims 新增functional接口。
|
||||
- [STABLE] ops.gather_elements 新增functional接口。
|
||||
- [STABLE] ops.grid_sample 新增GPU支持。
|
||||
- [STABLE] ops.hardswish 新增Ascend支持。
|
||||
- [BETA] ops.index_fill 新增GPU支持。
|
||||
- [BETA] ops.inplace_update 新增CPU支持。
|
||||
- [BETA] nn.InstanceNorm1d 新增GPU支持。
|
||||
- [BETA] nn.InstanceNorm2d 新增GPU支持。
|
||||
- [BETA] nn.InstanceNorm3d 新增GPU支持。
|
||||
- [STABLE] ops.log1p 新增functional接口。
|
||||
- [STABLE] ops.masked_fill 新增GPU、CPU支持。
|
||||
- [BETA] ops.matrix_diag_part 新增GPU支持。
|
||||
- [BETA] ops.matrix_diag 新增GPU支持。
|
||||
- [BETA] ops.matrix_set_diag 新增GPU支持。
|
||||
- [STABLE] ops.max_pool3d 新增GPU支持。
|
||||
- [STABLE] ops.nll_loss 新增functional接口。
|
||||
- [STABLE] ops.one_hot 新增functional接口。
|
||||
- [STABLE] ops.pad 新增functional接口。
|
||||
- [STABLE] ops.random_gamma 新增CPU支持。
|
||||
- [STABLE] ops.amax 新增functional接口。
|
||||
- [STABLE] ops.mean 新增functional接口。
|
||||
- [STABLE] ops.amin 新增functional接口。
|
||||
- [STABLE] ops.prod 新增functional接口。
|
||||
- [STABLE] ops.renorm 新增Ascend、GPU、CPU支持。
|
||||
- [BETA] ops.tensor_scatter_elements 新增Ascend、GPU、CPU支持。
|
||||
- [STABLE] ops.scatter_max 新增GPU支持。
|
||||
- [STABLE] ops.scatter_min 新增GPU支持。
|
||||
- [STABLE] ops.scatter_nd 新增functional接口。
|
||||
- [STABLE] ops.scatter_nd_max 新增GPU支持。
|
||||
- [STABLE] ops.scatter_update 新增functional接口。
|
||||
- [STABLE] ops.binary_cross_entropy_with_logits 新增CPU支持。
|
||||
- [STABLE] ops.smooth_l1_loss 新增functional接口。
|
||||
- [STABLE] ops.space_to_batch_nd 新增CPU支持。
|
||||
- [STABLE] ops.SparseApplyAdagrad 新增GPU、CPU支持。
|
||||
- [STABLE] ops.sparse_segment_mean 新增GPU、CPU支持。
|
||||
- [STABLE] ops.squeeze 新增functional接口。
|
||||
- [STABLE] ops.standard_laplace 新增CPU支持。
|
||||
- [BETA] nn.ReflectionPad1d 新增Ascend、GPU、CPU支持。
|
||||
- [BETA] nn.ReflectionPad2d 新增Ascend、GPU、CPU支持。
|
||||
- [STABLE] nn.SiLU 新增Ascend、GPU、CPU支持。
|
||||
- [STABLE] ops.transpose 新增functional接口。
|
||||
- [STABLE] ops.uniform_candidate_sampler 新增CPU支持。
|
||||
- [STABLE] ops.uniform 新增functional接口。
|
||||
- [STABLE] ops.unique_with_pad 新增GPU支持。
|
||||
- [STABLE] ops.unstack 新增functional接口。
|
||||
- [BETA] ops.interpolate 新增GPU、CPU支持。
|
||||
- [STABLE] ops.xdivy 新增CPU支持。
|
||||
- [STABLE] ops.xlogy 新增CPU支持。
|
||||
|
||||
# MindSpore 1.8.0
|
||||
|
||||
## MindSpore 1.8.0 Release Notes
|
||||
|
|
|
@ -15,15 +15,15 @@
|
|||
|
||||
对于5*6*7的Tensor, `x[2:,:3,:]` 等同于 `x[2:5,0:3,0:7]` 。
|
||||
|
||||
如果设置了 `elipsis_mask` 的第i位,则将在其他维度之间插入所需的任意数量的未指定维度。 `ellipsis_mask` 中只允许一个非零位。
|
||||
如果设置了 `ellipsis_mask` 的第i位,则将在其他维度之间插入所需的任意数量的未指定维度。 `ellipsis_mask` 中只允许一个非零位。
|
||||
|
||||
对于5*6*7*8的Tensor, `x[2:,...,:6]` 等同于 `x[2:5,:,:,0:6]` 。 `x[2:,...]` 等同于 `x[2:5,:,:,:]` 。
|
||||
|
||||
如果设置了 `new_ax_mask` 的第i位,则忽略 `begin` 、 `end` 和 `strides` ,并在输出Tensor的指定位置添加新的长度为1的维度。
|
||||
如果设置了 `new_axis_mask` 的第i位,则忽略 `begin` 、 `end` 和 `strides` ,并在输出Tensor的指定位置添加新的长度为1的维度。
|
||||
|
||||
对于5*6*7的Tensor, `x[:2, newaxis, :6]` 将产生一个shape为 :math:`(2, 1, 7)` 的Tensor。
|
||||
|
||||
如果设置了 `shrink_ax_mask` 的第i位,则第i个大小将维度收缩1,并忽略 `begin[i]` 、 `end[i]` 和 `strides[i]` 索引处的值。
|
||||
如果设置了 `shrink_axis_mask` 的第i位,则第i个大小将维度收缩1,并忽略 `begin[i]` 、 `end[i]` 和 `strides[i]` 索引处的值。
|
||||
|
||||
对于5*6*7的Tensor, `x[:, 5, :]` 将使得 `shrink_axis_mask` 等于4。
|
||||
|
||||
|
@ -34,7 +34,7 @@
|
|||
- **begin_mask** (int) - 表示切片的起始索引。使用二进制flag对输入Tensor不同维度进行标志,第i位设置为1则begin[i]参数对应的第i维度设置无效,表示该维度的起始索引从0开始。默认值:0。
|
||||
- **end_mask** (int) - 表示切片的结束索引。功能类似begin_mask。使用二进制flag对输入Tensor不同维度进行标志,第i位设置为1则end参数对应的该维度设置无效,表示该维度切分的结束索引到列表最后,即切分到尽可能大的维度。默认值:0。
|
||||
- **ellipsis_mask** (int) - 不为0的维度不需要进行切片操作。为int型掩码。默认值:0。
|
||||
- **new_axis_mask** (int) - 如果第i位出现1,则begin、end、stride对所有维度参数无效,并在第1位上增加一个大小为1的维度。为int型掩码。默认值:0。
|
||||
- **new_axis_mask** (int) - 如果第i位出现1,则begin、end、stride对所有维度参数无效,并在第i位上增加一个大小为1的维度。为int型掩码。默认值:0。
|
||||
- **shrink_axis_mask** (int) - 如果第i位设置为1,则意味着第i维度缩小为1。为int型掩码。默认值:0。
|
||||
|
||||
输入:
|
||||
|
|
|
@ -3,7 +3,7 @@ mindspore.ops.gamma
|
|||
|
||||
.. py:function:: mindspore.ops.gamma(shape, alpha, beta, seed=None)
|
||||
|
||||
根据伽马分布产生成随机数。
|
||||
根据伽马分布生成随机数。
|
||||
|
||||
参数:
|
||||
- **shape** (tuple) - 指定生成随机数的shape。任意维度的Tensor。
|
||||
|
|
|
@ -58,10 +58,10 @@ def random_gamma(shape, alpha, seed=0, seed2=0):
|
|||
|
||||
Examples:
|
||||
>>> import numpy as np
|
||||
>>> from mindspore.ops import functional as F
|
||||
>>> from mindspore import ops
|
||||
>>> shape = Tensor(np.array([7, 5]), mindspore.int32)
|
||||
>>> alpha = Tensor(np.array([0.5, 1.5]), mindspore.float32)
|
||||
>>> output = F.random_gamma(shape, alpha, seed=5)
|
||||
>>> output = ops.random_gamma(shape, alpha, seed=5)
|
||||
>>> result = output.shape
|
||||
>>> print(result)
|
||||
(7, 5, 2)
|
||||
|
|
|
@ -171,14 +171,14 @@ def narrow(inputs, axis, start, length):
|
|||
|
||||
Examples:
|
||||
>>> import mindspore
|
||||
>>> from mindspore.ops import functional as F
|
||||
>>> from mindspore import ops
|
||||
>>> from mindspore import Tensor
|
||||
>>> x = Tensor([[1, 2, 3], [4, 5, 6], [7, 8, 9]], mindspore.int32)
|
||||
>>> output = F.narrow(x, 0, 0, 2)
|
||||
>>> output = ops.narrow(x, 0, 0, 2)
|
||||
>>> print(output)
|
||||
[[ 1 2 3]
|
||||
[ 4 5 6]]
|
||||
>>> output = F.narrow(x, 1, 1, 2)
|
||||
>>> output = ops.narrow(x, 1, 1, 2)
|
||||
>>> print(output)
|
||||
[[ 2 3]
|
||||
[ 5 6]
|
||||
|
|
|
@ -4238,27 +4238,26 @@ class NPUGetFloatStatus(PrimitiveWithInfer):
|
|||
Examples:
|
||||
>>> import numpy as np
|
||||
>>> import mindspore.nn as nn
|
||||
>>> import mindspore.ops.functional as F
|
||||
>>> from mindspore import ops
|
||||
>>> from mindspore.common import dtype as mstype
|
||||
>>> from mindspore.common.tensor import Tensor
|
||||
>>> from mindspore.ops import operations as P
|
||||
>>> class Net(nn.Cell):
|
||||
... def __init__(self):
|
||||
... super().__init__()
|
||||
... self.alloc_status = P.NPUAllocFloatStatus()
|
||||
... self.get_status = P.NPUGetFloatStatus()
|
||||
... self.clear_status = P.NPUClearFloatStatus()
|
||||
... self.sub = P.Sub()
|
||||
... self.neg = P.Neg()
|
||||
... self.alloc_status = ops.NPUAllocFloatStatus()
|
||||
... self.get_status = ops.NPUGetFloatStatus()
|
||||
... self.clear_status = ops.NPUClearFloatStatus()
|
||||
... self.sub = ops.Sub()
|
||||
... self.neg = ops.Neg()
|
||||
...
|
||||
... def construct(self, x):
|
||||
... init = self.alloc_status()
|
||||
... clear_status = self.clear_status(init)
|
||||
... x = F.depend(x, clear_status)
|
||||
... x = ops.depend(x, clear_status)
|
||||
... res = self.sub(x, self.neg(x))
|
||||
... init = F.depend(init, res)
|
||||
... init = ops.depend(init, res)
|
||||
... get_status = self.get_status(init)
|
||||
... res = F.depend(res, get_status)
|
||||
... res = ops.depend(res, get_status)
|
||||
... return res
|
||||
>>>
|
||||
>>> value = 5
|
||||
|
@ -4312,27 +4311,26 @@ class NPUClearFloatStatus(PrimitiveWithInfer):
|
|||
Examples:
|
||||
>>> import numpy as np
|
||||
>>> import mindspore.nn as nn
|
||||
>>> import mindspore.ops.functional as F
|
||||
>>> from mindspore import ops
|
||||
>>> from mindspore.common import dtype as mstype
|
||||
>>> from mindspore.common.tensor import Tensor
|
||||
>>> from mindspore.ops import operations as P
|
||||
>>> class Net(nn.Cell):
|
||||
... def __init__(self):
|
||||
... super().__init__()
|
||||
... self.alloc_status = P.NPUAllocFloatStatus()
|
||||
... self.get_status = P.NPUGetFloatStatus()
|
||||
... self.clear_status = P.NPUClearFloatStatus()
|
||||
... self.sub = P.Sub()
|
||||
... self.neg = P.Neg()
|
||||
... self.alloc_status = ops.NPUAllocFloatStatus()
|
||||
... self.get_status = ops.NPUGetFloatStatus()
|
||||
... self.clear_status = ops.NPUClearFloatStatus()
|
||||
... self.sub = ops.Sub()
|
||||
... self.neg = ops.Neg()
|
||||
...
|
||||
... def construct(self, x):
|
||||
... init = self.alloc_status()
|
||||
... clear_status = self.clear_status(init)
|
||||
... x = F.depend(x, clear_status)
|
||||
... x = ops.depend(x, clear_status)
|
||||
... res = self.sub(x, self.neg(x))
|
||||
... init = F.depend(init, res)
|
||||
... init = ops.depend(init, res)
|
||||
... get_status = self.get_status(init)
|
||||
... res = F.depend(res, get_status)
|
||||
... res = ops.depend(res, get_status)
|
||||
... return res
|
||||
>>>
|
||||
>>> value = 5
|
||||
|
|
|
@ -6627,7 +6627,7 @@ class ApplyGradientDescent(Primitive):
|
|||
RuntimeError: If the data type of `var` and `delta` conversion of Parameter is not supported.
|
||||
|
||||
Supported Platforms:
|
||||
``Ascend`` ``GPU``
|
||||
``Ascend`` ``GPU`` ``CPU``
|
||||
|
||||
Examples:
|
||||
>>> class Net(nn.Cell):
|
||||
|
|
Loading…
Reference in New Issue