This commit is contained in:
wanyiming 2022-01-14 15:22:38 +08:00
parent fff16dc947
commit d541604ec1
2 changed files with 6 additions and 4 deletions

View File

@ -34,11 +34,13 @@ mindspore.nn.SGD
.. include:: mindspore.nn.optim_group_param.rst
.. include:: mindspore.nn.optim_group_lr.rst
.. include:: mindspore.nn.optim_group_weight_decay.rst
- **weight_decay** : 目前不支持通过参数分组使用不同的weight_decay。
.. include:: mindspore.nn.optim_group_gc.rst
.. include:: mindspore.nn.optim_group_order.rst
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]): 默认值0.1。
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]): 默认值0.1。
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
@ -47,7 +49,7 @@ mindspore.nn.SGD
- **weight_decay** (float): 权重衰减L2 penalty必须大于等于0。默认值0.0。
- **nesterov** (bool): 启用Nesterov动量。如果使用Nesterov动量必须为正阻尼必须等于0.0。默认值False。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
**输入:**

View File

@ -1 +1 @@
- **lr** - 可选。如果键中存在"lr",则使用对应的值作为学习率。如果没有,则使用优化器中配置的 `learning_rate` 作为学习率。
- **lr** - 可选。如果键中存在"lr",则使用对应的值作为学习率。如果没有,则使用优化器中配置的 `learning_rate` 作为学习率。支持固定和动态学习率。