[ME]Modify the description of parameter name.
This commit is contained in:
parent
d1bf808117
commit
38cc713207
|
@ -9,12 +9,11 @@
|
|||
- 在"semi_auto_parallel"和"auto_parallel"的并行模式下,如果使用 `Initializer` 模块初始化参数,参数的类型将为 `Tensor` ,:class:`mindspore.ops.AllGather` 。`Tensor` 仅保存张量的形状和类型信息,而不占用内存来保存实际数据。
|
||||
- 并行场景下存在参数的形状发生变化的情况,用户可以调用 `Parameter` 的 `init_data` 方法得到原始数据。
|
||||
- 如果网络中存在需要部分输入为 `Parameter` 的算子,则不允许这部分输入的 `Parameter` 进行转换。
|
||||
- 如果在 `Cell` 里初始化一个 `Parameter` 作为 `Cell` 的属性时,建议使用默认值None,否则 `Parameter` 的 `name` 可能与预期不一致。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **default_input** (Union[Tensor, int, float, numpy.ndarray, list]) - 初始化参数的输入值。
|
||||
- **name** (str) - 参数的名称。默认值:None。
|
||||
- **name** (str) - 参数的名称。默认值:None。如果一个网络中存在两个及以上相同名称的`Parameter`对象,在定义时将提示设置一个特有的名称。
|
||||
- **requires_grad** (bool) - 是否需要微分求梯度。默认值:True。
|
||||
- **layerwise_parallel** (bool) - 在数据/混合并行模式下,`layerwise_parallel` 配置为True时,参数广播和梯度聚合时会过滤掉该参数。默认值:False。
|
||||
- **parallel_optimizer** (bool) - 用于在 `semi_auto_parallel` 或 `auto_parallel` 并行模式下区分参数是否进行优化器切分。仅在 `mindspore.context.set_auto_parallel_context()` 并行配置模块中设置 `enable_parallel_optimizer` 启用优化器并行时有效。默认值:True。
|
||||
|
|
|
@ -77,8 +77,9 @@ class Parameter(Tensor_):
|
|||
compiling for auto-parallel. Call `init_data` will return a Tensor Parameter with initialized data.
|
||||
If there is an operator in the network that requires part of the inputs to be Parameter,
|
||||
then the Parameters as this part of the inputs are not allowed to be cast.
|
||||
It is recommended to use the default value of `name` when initialize a parameter as one attribute of a cell,
|
||||
otherwise, the parameter name may be different from expected.
|
||||
Give each `Parameter` a unique name to facilitate subsequent operations and updates.
|
||||
If there are two or more `Parameter` objects with the same name in a network,
|
||||
will be prompted to set a unique name when defining.
|
||||
|
||||
Args:
|
||||
default_input (Union[Tensor, int, float, numpy.ndarray, list]): Parameter data,
|
||||
|
|
Loading…
Reference in New Issue