forked from mindspore-Ecosystem/mindspore
commit
c6156a065b
|
@ -10,7 +10,6 @@ mindspore.dataset
|
|||
请注意Windows平台上还不支持缓存服务,因此在Windows上加载和处理数据时,请勿使用。更多介绍和限制,
|
||||
请参考 `Single-Node Tensor Cache <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/cache.html>`_。
|
||||
|
||||
|
||||
在API示例中,常用的模块导入方法如下:
|
||||
|
||||
.. code-block::
|
||||
|
@ -18,6 +17,13 @@ mindspore.dataset
|
|||
import mindspore.dataset as ds
|
||||
from mindspore.dataset.transforms import c_transforms
|
||||
|
||||
常用数据集术语说明如下:
|
||||
|
||||
- Dataset,所有数据集的基类,提供了数据处理方法来帮助预处理数据。
|
||||
- SourceDataset,一个抽象类,表示数据集管道的来源,从文件和数据库等数据源生成数据。
|
||||
- MappableDataset,一个抽象类,表示支持随机访问的源数据集。
|
||||
- Iterator,用于枚举元素的数据集迭代器的基类。
|
||||
|
||||
Vision
|
||||
-------
|
||||
|
||||
|
|
|
@ -1,6 +1,12 @@
|
|||
mindspore.nn
|
||||
=============
|
||||
|
||||
神经网络Cell。
|
||||
|
||||
用于构建神经网络中的预定义构建块或计算单元。
|
||||
|
||||
MindSpore中 `mindspore.nn` 算子与上一版本相比,新增、删除和支持平台的变化信息请参考 `API Updates <https://gitee.com/mindspore/docs/blob/master/resource/api_updates/ops_api_updates.md>`_。
|
||||
|
||||
Cell
|
||||
----
|
||||
|
||||
|
@ -152,6 +158,20 @@ Dynamic Learning Rate
|
|||
LearningRateSchedule
|
||||
^^^^^^^^^^^^^^^^^^^^^
|
||||
|
||||
本模块中的动态学习率都是LearningRateSchedule的子类,将LearningRateSchedule的实例传递给优化器。在训练过程中,优化器以当前step为输入调用该实例,得到当前的学习率。
|
||||
|
||||
.. code-block::
|
||||
|
||||
import mindspore.nn as nn
|
||||
|
||||
min_lr = 0.01
|
||||
max_lr = 0.1
|
||||
decay_steps = 4
|
||||
cosine_decay_lr = nn.CosineDecayLR(min_lr, max_lr, decay_steps)
|
||||
|
||||
net = Net()
|
||||
optim = nn.Momentum(net.trainable_params(), learning_rate=cosine_decay_lr, momentum=0.9)
|
||||
|
||||
.. cnmsplatformautosummary::
|
||||
:toctree: nn
|
||||
|
||||
|
@ -165,6 +185,23 @@ LearningRateSchedule
|
|||
Dynamic LR
|
||||
^^^^^^^^^^
|
||||
|
||||
本模块中的动态学习率都是function,调用function并将结果传递给优化器。在训练过程中,优化器将result[current step]作为当前学习率。
|
||||
|
||||
.. code-block::
|
||||
|
||||
import mindspore.nn as nn
|
||||
|
||||
min_lr = 0.01
|
||||
max_lr = 0.1
|
||||
total_step = 6
|
||||
step_per_epoch = 1
|
||||
decay_epoch = 4
|
||||
|
||||
lr= nn.cosine_decay_lr(min_lr, max_lr, total_step, step_per_epoch, decay_epoch)
|
||||
|
||||
net = Net()
|
||||
optim = nn.Momentum(net.trainable_params(), learning_rate=lr, momentum=0.9)
|
||||
|
||||
.. cnmsautosummary::
|
||||
:toctree: nn
|
||||
|
||||
|
|
|
@ -1,12 +1,22 @@
|
|||
mindspore.ops
|
||||
=============
|
||||
|
||||
算子可用于Cell的构造函数。
|
||||
|
||||
.. code-block::
|
||||
|
||||
import mindspore.ops as ops
|
||||
|
||||
MindSpore中 `mindspore.ops` 算子与上一版本相比,新增、删除和支持平台的变化信息请参考 `API Updates <https://gitee.com/mindspore/docs/blob/master/resource/api_updates/ops_api_updates.md>`_。
|
||||
|
||||
operations
|
||||
----------
|
||||
|
||||
Neural Network Operators
|
||||
^^^^^^^^^^^^^^^^^^^^^^^^
|
||||
|
||||
operations中的Primitive算子在使用前需要实例化。
|
||||
|
||||
.. cnmsplatformautosummary::
|
||||
:toctree: ops
|
||||
|
||||
|
|
Loading…
Reference in New Issue