forked from mindspore-Ecosystem/mindspore
fix_sgd
This commit is contained in:
parent
fff16dc947
commit
d541604ec1
|
@ -34,11 +34,13 @@ mindspore.nn.SGD
|
|||
|
||||
.. include:: mindspore.nn.optim_group_param.rst
|
||||
.. include:: mindspore.nn.optim_group_lr.rst
|
||||
.. include:: mindspore.nn.optim_group_weight_decay.rst
|
||||
|
||||
- **weight_decay** : 目前不支持通过参数分组使用不同的weight_decay。
|
||||
|
||||
.. include:: mindspore.nn.optim_group_gc.rst
|
||||
.. include:: mindspore.nn.optim_group_order.rst
|
||||
|
||||
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]): 默认值:0.1。
|
||||
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]): 默认值:0.1。
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
|
||||
|
||||
|
@ -47,7 +49,7 @@ mindspore.nn.SGD
|
|||
- **weight_decay** (float): 权重衰减(L2 penalty),必须大于等于0。默认值:0.0。
|
||||
- **nesterov** (bool): 启用Nesterov动量。如果使用Nesterov,动量必须为正,阻尼必须等于0.0。默认值:False。
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_loss_scale.rst
|
||||
.. include:: mindspore.nn.optim_arg_loss_scale.rst
|
||||
|
||||
**输入:**
|
||||
|
||||
|
|
|
@ -1 +1 @@
|
|||
- **lr** - 可选。如果键中存在"lr",则使用对应的值作为学习率。如果没有,则使用优化器中配置的 `learning_rate` 作为学习率。
|
||||
- **lr** - 可选。如果键中存在"lr",则使用对应的值作为学习率。如果没有,则使用优化器中配置的 `learning_rate` 作为学习率。支持固定和动态学习率。
|
||||
|
|
Loading…
Reference in New Issue