!27100 PyNative Chinese API doc

Merge pull request !27100 from chujinjin/code_docs_pynative_api
This commit is contained in:
i-robot 2021-12-03 02:02:30 +00:00 committed by Gitee
commit 25aa2bee49
1 changed files with 61 additions and 0 deletions

View File

@ -0,0 +1,61 @@
Class mindspore.nn.ForwardValueAndGrad(network, weights=None, get_all=False, get_by_list=False, sens_param=False)
网络训练包类。
包括正向网络和梯度函数。该类生成的Cell使用'\*inputs'输入来训练。
通过梯度函数来创建反向图,用以计算梯度。
参数:
network (Cell):训练网络。
weights (ParameterTuple):训练网络中需要计算梯度的的参数。
get_all (bool)如果为True则计算网络输入对应的梯度。默认值False。
get_by_list (bool)如果为True则计算参数变量对应的梯度。
如果get_all和get_by_list都为False则计算第一个输入对应的梯度。
如果get_all和get_by_list都为True则以输入的梯度,(参数的梯度))的形式同时获取输入和参数变量的梯度。
默认值False。
sens_param (bool)是否将sens作为输入。
如果sens_param为False则sens默认为'ones_like(outputs)'。
默认值False。
如果sens_param为True则需要指定sens的值。
输入:
- **(\*inputs)** (Tuple(Tensor...))shape为:math:`(N, \ldots)`的输入tuple。
- **(sens)**:反向传播梯度的缩放值。
如果网络有单个输出则sens是tensor。
如果网络有多个输出则sens是tuple(tensor)。
输出:
- **forward value**:网络运行的正向结果。
- **gradients** (tuple(tensor)):网络反向传播的梯度。
支持平台:
``Ascend`` ``GPU`` ``CPU``
示例:
>>> class Net(nn.Cell):
... def __init__(self)
... super(Net, self).__init__()
... self.weight = Parameter(Tensor(np.ones([2, 2]).astype(np.float32)), name="weight")
... self.matmul = P.MatMul()
...
... def construct(self, x)
... out = self.matmul(x, self.weight)
... return out
...
>>> net = Net()
>>> criterion = nn.SoftmaxCrossEntropyWithLogits()
>>> net_with_criterion = nn.WithLossCell(net, criterion)
>>> weight = ParameterTuple(net.trainable_params())
>>> train_network = nn.ForwardValueAndGrad(net_with_criterion, weights=weight, get_all=True, get_by_list=True)
>>> inputs = Tensor(np.ones([1, 2]).astype(np.float32))
>>> labels = Tensor(np.zeros([1, 2]).astype(np.float32))
>>> result = train_network(inputs, labels)
>>> print(result)
(Tensor(shape=[1], dtype=Float32, value=[0.00000000e+00]), ((Tensor(shape=[1, 2], dtype=Float32, value=
[[1.00000000e+00, 1.00000000e+00]]), Tensor(shape=[1, 2], dtype=Float32, value=
[[0.00000000e+00, 0.00000000e+00]])), (Tensor(shape=[2, 2], dtype=Float32, value=
[[5.00000000e-01, 5.00000000e-01],
[5.00000000e-01, 5.00000000e-01]]),)))