!27481 Correct api for pynative

Merge pull request !27481 from JoyLvliang/correct_api_des_for_pynative
This commit is contained in:
i-robot 2021-12-15 12:35:46 +00:00 committed by Gitee
commit c4603023d2
4 changed files with 14 additions and 7 deletions

View File

@ -11,14 +11,19 @@ mindspore.ms_function
- **fn** (Function) - 要编译成图的Python函数。默认值None。
- **obj** (Object) - 用于区分编译后函数的Python对象。默认值None。
- **input_signature** (Tensor) - 用于表示输入参数的Tensor。Tensor的shape和dtype将作为函数的输入shape和dtype。如果指定了 `input_signature` ,则 `fn` 的每个输入都必须是Tensor。
并且 `fn` 的输入参数将不会接受 `\**kwargs` 参数。实际输入的shape和dtype必须与 `input_signature` 的相同。否则将引发TypeError。默认值None。
- **input_signature** (Tensor) - 用于表示输入参数的Tensor。Tensor的shape和dtype将作为函数的输入shape和dtype。默认值None。
.. note::
- 如果指定了 `input_signature` ,则 `fn` 的每个输入都必须是Tensor。并且 `fn` 的输入参数将不会接受 `**kwargs` 参数。
**返回:**
函数,如果 `fn` 不是None则返回一个已经将输入 `fn` 编译成图的可执行函数;如果 `fn` 为None则返回一个装饰器。当这个装饰器使用单个 `fn` 参数进行调用时,等价于 `fn` 不是None的场景。
**异常:**
- **TypeError** 如果指定了 `input_signature`但是实际输入的shape和dtype与 `input_signature` 的不相同。
**支持平台:**
``Ascend`` ``GPU`` ``CPU``

View File

@ -60,7 +60,7 @@
.. py:method:: bprop_debug
:property:
获取自定义反向传播调试功能是否已启用
在图模式下使用,用于标识是否使用自定义的反向传播函数
.. py:method:: cast_inputs(inputs, dst_type)
@ -345,7 +345,9 @@
设置网络反向hook函数。此函数仅在PyNative Mode下支持。
.. note:: fn必须有如下代码定义。 `cell_name` 是已注册网络的名称。 `grad_input` 是传递给网络的梯度。 `grad_output` 是计算或者传递给下一个网络或者算子的梯度这个梯度可以被修改或者返回。fn的返回值为Tensor或者None。
.. note::
- fn必须有如下代码定义。 `cell_name` 是已注册网络的名称。 `grad_input` 是传递给网络的梯度。 `grad_output` 是计算或者传递给下一个网络或者算子的梯度,这个梯度可以被修改或者返回。
- fn的返回值为Tensor或者Nonefn(cell_name, grad_input, grad_output) -> Tensor or None。
**参数:**

View File

@ -3,7 +3,7 @@ mindspore.nn.ForwardValueAndGrad
.. py:class:: mindspore.nn.ForwardValueAndGrad(network, weights=None, get_all=False, get_by_list=False, sens_param=False)
网络训练包类
训练网络的封装
包括正向网络和梯度函数。该类生成的Cell使用'\*inputs'输入来训练。
通过梯度函数来创建反向图,用以计算梯度。

View File

@ -186,7 +186,7 @@ class WithGradCell(Cell):
class ForwardValueAndGrad(Cell):
r"""
Network training package class.
Encapsulate training network.
Including the network and a gradient function. The resulting Cell is trained with input '\*inputs'.
The backward graph will be created in the gradient function to calculating gradient.