forked from mindspore-Ecosystem/mindspore
commit
c6156a065b
|
@ -10,7 +10,6 @@ mindspore.dataset
|
||||||
请注意Windows平台上还不支持缓存服务,因此在Windows上加载和处理数据时,请勿使用。更多介绍和限制,
|
请注意Windows平台上还不支持缓存服务,因此在Windows上加载和处理数据时,请勿使用。更多介绍和限制,
|
||||||
请参考 `Single-Node Tensor Cache <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/cache.html>`_。
|
请参考 `Single-Node Tensor Cache <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/cache.html>`_。
|
||||||
|
|
||||||
|
|
||||||
在API示例中,常用的模块导入方法如下:
|
在API示例中,常用的模块导入方法如下:
|
||||||
|
|
||||||
.. code-block::
|
.. code-block::
|
||||||
|
@ -18,6 +17,13 @@ mindspore.dataset
|
||||||
import mindspore.dataset as ds
|
import mindspore.dataset as ds
|
||||||
from mindspore.dataset.transforms import c_transforms
|
from mindspore.dataset.transforms import c_transforms
|
||||||
|
|
||||||
|
常用数据集术语说明如下:
|
||||||
|
|
||||||
|
- Dataset,所有数据集的基类,提供了数据处理方法来帮助预处理数据。
|
||||||
|
- SourceDataset,一个抽象类,表示数据集管道的来源,从文件和数据库等数据源生成数据。
|
||||||
|
- MappableDataset,一个抽象类,表示支持随机访问的源数据集。
|
||||||
|
- Iterator,用于枚举元素的数据集迭代器的基类。
|
||||||
|
|
||||||
Vision
|
Vision
|
||||||
-------
|
-------
|
||||||
|
|
||||||
|
|
|
@ -1,6 +1,12 @@
|
||||||
mindspore.nn
|
mindspore.nn
|
||||||
=============
|
=============
|
||||||
|
|
||||||
|
神经网络Cell。
|
||||||
|
|
||||||
|
用于构建神经网络中的预定义构建块或计算单元。
|
||||||
|
|
||||||
|
MindSpore中 `mindspore.nn` 算子与上一版本相比,新增、删除和支持平台的变化信息请参考 `API Updates <https://gitee.com/mindspore/docs/blob/master/resource/api_updates/ops_api_updates.md>`_。
|
||||||
|
|
||||||
Cell
|
Cell
|
||||||
----
|
----
|
||||||
|
|
||||||
|
@ -152,6 +158,20 @@ Dynamic Learning Rate
|
||||||
LearningRateSchedule
|
LearningRateSchedule
|
||||||
^^^^^^^^^^^^^^^^^^^^^
|
^^^^^^^^^^^^^^^^^^^^^
|
||||||
|
|
||||||
|
本模块中的动态学习率都是LearningRateSchedule的子类,将LearningRateSchedule的实例传递给优化器。在训练过程中,优化器以当前step为输入调用该实例,得到当前的学习率。
|
||||||
|
|
||||||
|
.. code-block::
|
||||||
|
|
||||||
|
import mindspore.nn as nn
|
||||||
|
|
||||||
|
min_lr = 0.01
|
||||||
|
max_lr = 0.1
|
||||||
|
decay_steps = 4
|
||||||
|
cosine_decay_lr = nn.CosineDecayLR(min_lr, max_lr, decay_steps)
|
||||||
|
|
||||||
|
net = Net()
|
||||||
|
optim = nn.Momentum(net.trainable_params(), learning_rate=cosine_decay_lr, momentum=0.9)
|
||||||
|
|
||||||
.. cnmsplatformautosummary::
|
.. cnmsplatformautosummary::
|
||||||
:toctree: nn
|
:toctree: nn
|
||||||
|
|
||||||
|
@ -165,6 +185,23 @@ LearningRateSchedule
|
||||||
Dynamic LR
|
Dynamic LR
|
||||||
^^^^^^^^^^
|
^^^^^^^^^^
|
||||||
|
|
||||||
|
本模块中的动态学习率都是function,调用function并将结果传递给优化器。在训练过程中,优化器将result[current step]作为当前学习率。
|
||||||
|
|
||||||
|
.. code-block::
|
||||||
|
|
||||||
|
import mindspore.nn as nn
|
||||||
|
|
||||||
|
min_lr = 0.01
|
||||||
|
max_lr = 0.1
|
||||||
|
total_step = 6
|
||||||
|
step_per_epoch = 1
|
||||||
|
decay_epoch = 4
|
||||||
|
|
||||||
|
lr= nn.cosine_decay_lr(min_lr, max_lr, total_step, step_per_epoch, decay_epoch)
|
||||||
|
|
||||||
|
net = Net()
|
||||||
|
optim = nn.Momentum(net.trainable_params(), learning_rate=lr, momentum=0.9)
|
||||||
|
|
||||||
.. cnmsautosummary::
|
.. cnmsautosummary::
|
||||||
:toctree: nn
|
:toctree: nn
|
||||||
|
|
||||||
|
|
|
@ -1,12 +1,22 @@
|
||||||
mindspore.ops
|
mindspore.ops
|
||||||
=============
|
=============
|
||||||
|
|
||||||
|
算子可用于Cell的构造函数。
|
||||||
|
|
||||||
|
.. code-block::
|
||||||
|
|
||||||
|
import mindspore.ops as ops
|
||||||
|
|
||||||
|
MindSpore中 `mindspore.ops` 算子与上一版本相比,新增、删除和支持平台的变化信息请参考 `API Updates <https://gitee.com/mindspore/docs/blob/master/resource/api_updates/ops_api_updates.md>`_。
|
||||||
|
|
||||||
operations
|
operations
|
||||||
----------
|
----------
|
||||||
|
|
||||||
Neural Network Operators
|
Neural Network Operators
|
||||||
^^^^^^^^^^^^^^^^^^^^^^^^
|
^^^^^^^^^^^^^^^^^^^^^^^^
|
||||||
|
|
||||||
|
operations中的Primitive算子在使用前需要实例化。
|
||||||
|
|
||||||
.. cnmsplatformautosummary::
|
.. cnmsplatformautosummary::
|
||||||
:toctree: ops
|
:toctree: ops
|
||||||
|
|
||||||
|
|
Loading…
Reference in New Issue