forked from mindspore-Ecosystem/mindspore
modify doc
This commit is contained in:
parent
8d40dc2caa
commit
27798e43ea
|
@ -30,7 +30,7 @@
|
|||
如果 `batch_size` 为整型,则直接表示每个批处理数据大小;
|
||||
如果为可调用对象,则可以通过自定义行为动态指定每个批处理数据大小,要求该可调用对象接收一个参数BatchInfo,返回一个整形代表批处理大小,用法请参考样例(3)。
|
||||
- **drop_remainder** (bool, 可选) - 当最后一个批处理数据包含的数据条目小于 `batch_size` 时,是否将该批处理丢弃,不传递给下一个操作。默认值:False,不丢弃。
|
||||
- **num_parallel_workers** (int, 可选) - 指定 `batch `操作的并发进程数/线程数(由参数 `python_multiprocessing` 决定当前为多进程模式或多线程模式)。
|
||||
- **num_parallel_workers** (int, 可选) - 指定 `batch` 操作的并发进程数/线程数(由参数 `python_multiprocessing` 决定当前为多进程模式或多线程模式)。
|
||||
默认值:None,使用mindspore.dataset.config中配置的线程数。
|
||||
- **per_batch_map** (callable, 可选) - 可调用对象,以(list[Tensor], list[Tensor], ..., BatchInfo)作为输入参数,处理后返回(list[Tensor], list[Tensor],...)作为新的数据列。
|
||||
输入参数中每个list[Tensor]代表给定数据列中的一批Tensor,list[Tensor]的个数应与 `input_columns` 中传入列名的数量相匹配,
|
||||
|
|
|
@ -8,7 +8,7 @@ mindspore.dataset.audio.transforms.BassBiquad
|
|||
低频搁架滤波器能够通过所有频率,但将低于搁架的频率提升或衰减指定量,其系统函数为:
|
||||
|
||||
.. math::
|
||||
H(s) = A\frac{s^2 + \frac{\sqrt{A}}{Q}s + A}{As^2 + \frac{\sqrt{A}}{Q}s + 1}` 。
|
||||
H(s) = A\frac{s^2 + \frac{\sqrt{A}}{Q}s + A}{As^2 + \frac{\sqrt{A}}{Q}s + 1}
|
||||
|
||||
接口实现方式类似于 `SoX库 <http://sox.sourceforge.net/sox.html>`_ 。
|
||||
|
||||
|
|
|
@ -86,7 +86,7 @@ MindSpore context,用于配置当前执行环境,包括执行模式、执行
|
|||
- **enable_profiling** (bool) - 此参数已弃用,将在下一版本中删除。请使用mindspore.profiler.Profiler API。
|
||||
- **profiling_options** (str) - 此参数已弃用,将在下一版本中删除。请使用mindspore.profiler.Profiler API。
|
||||
- **print_file_path** (str):该路径用于保存打印数据。使用时 :class:`mindspore.ops.print` 可以打印输入的张量或字符串信息,使用方法 :func:`mindspore.parse_print` 解析保存的文件。如果设置了此参数,打印数据保存到文件,未设置将显示到屏幕。如果保存的文件已经存在,则将添加时间戳后缀到文件中。将数据保存到文件解决了屏幕打印中的数据丢失问题, 如果未设置,将报告错误:"prompt to set the upper absolute path"。
|
||||
- **env_config_path** (str) - 通过``context.set_context(env_config_path="./mindspore_config.json")``来设置MindSpore环境配置文件路径。
|
||||
- **env_config_path** (str) - 通过 `context.set_context(env_config_path="./mindspore_config.json")` 来设置MindSpore环境配置文件路径。
|
||||
|
||||
配置Running Data Recorder:
|
||||
|
||||
|
@ -96,7 +96,7 @@ MindSpore context,用于配置当前执行环境,包括执行模式、执行
|
|||
内存重用:
|
||||
|
||||
- **mem_Reuse**:表示内存复用功能是否打开。设置为True时,将打开内存复用功能。设置为False时,将关闭内存复用功能。
|
||||
有关running data recoder和内存复用配置详细信息,请查看`配置RDR和内存复用 <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/custom_debugging_info.html>`_。
|
||||
有关running data recoder和内存复用配置详细信息,请查看 `配置RDR和内存复用 <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/custom_debugging_info.html>`_。
|
||||
|
||||
|
||||
- **precompile_only** (bool) - 表示是否仅预编译网络。默认值:False。设置为True时,仅编译网络,而不执行网络。
|
||||
|
@ -137,7 +137,7 @@ MindSpore context,用于配置当前执行环境,包括执行模式、执行
|
|||
- **enable_sparse** (bool) - 表示是否启用稀疏特征。默认值:False。有关稀疏特征和稀疏张量的详细信息,请查看 `稀疏张量 <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/tensor.html#sparse-tensor>`_。
|
||||
- **grad_for_scalar** (bool): 表示是否获取标量梯度。默认值:False。当 `grad_for_scalar` 设置为True时,则可以导出函数的标量输入。由于后端目前不支持伸缩操作,所以该接口只支持在前端可推演的简单操作。
|
||||
- **enable_compile_cache** (bool) - 表示是否加载或者保存前端编译的图。当 `enable_compile_cache` 被设置为True时,在第一次执行的过程中,一个硬件无关的编译缓存会被生成并且导出为一个MINDIR文件。当该网络被再次执行时,如果 `enable_compile_cache` 仍然为True并且网络脚本没有被更改,那么这个编译缓存会被加载。注意目前只支持有限的Python脚本更改的自动检测,这意味着可能有正确性风险。默认值:False。这是一个实验特性,可能会被更改或者删除。
|
||||
- **compile_cache_path** (str) - 保存前端图编译缓存的路径。默认值:"."。如果目录不存在,系统会自动创建这个目录。缓存会被保存到如下目录:`compile_cache_path/rank_${rank_id}/` 。 `rank_id` 是集群上当前设备的ID。
|
||||
- **compile_cache_path** (str) - 保存前端图编译缓存的路径。默认值:"."。如果目录不存在,系统会自动创建这个目录。缓存会被保存到如下目录: `compile_cache_path/rank_${rank_id}/` 。 `rank_id` 是集群上当前设备的ID。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
|
|
@ -9,11 +9,11 @@ mindspore.build_train_network
|
|||
|
||||
- **network** (Cell) – 定义网络结构。
|
||||
- **optimizer** (Optimizer) – 定义优化器,用于更新权重参数。
|
||||
- **loss_fn** (Union[None, Cell]) – 定义损失函数。如果为None,`network` 中应该包含损失函数。默认值:None。
|
||||
- **loss_fn** (Union[None, Cell]) – 定义损失函数。如果为None, `network` 中应该包含损失函数。默认值:None。
|
||||
- **level** (str) – 支持["O0", "O2", "O3", "auto"]。默认值:"O0"。
|
||||
|
||||
- **"O0"** - 不变化。
|
||||
- **"O2"** - 将网络精度转为float16,`BatchNorm` 和 `loss_fn` 保持float32精度,使用动态调整损失缩放系数(loss scale)的策略。
|
||||
- **"O2"** - 将网络精度转为float16, `BatchNorm` 和 `loss_fn` 保持float32精度,使用动态调整损失缩放系数(loss scale)的策略。
|
||||
- **"O3"** - 将网络精度转为float16,不使用损失缩放策略,并设置 `keep_batchnorm_fp32` 为False。
|
||||
- **auto** - 为不同处理器设置专家推荐的混合精度等级,如在GPU上设为"O2",在Ascend上设为"O3"。该设置方式可能在部分场景下不适用,建议用户根据具体的网络模型自定义设置 `amp_level` 。 `keep_batchnorm_fp32` , `cast_model_type` 和 `loss_scale_manager` 属性由level自动决定。
|
||||
|
||||
|
@ -29,4 +29,4 @@ mindspore.build_train_network
|
|||
|
||||
**异常:**
|
||||
|
||||
- **ValueError** - 在CPU上,属性 `loss_scale_manager` 不是 `None` 或 `FixedLossScaleManager`(其属性 `drop_overflow_update=False` )。
|
||||
- **ValueError** - 在CPU上,属性 `loss_scale_manager` 不是 `None` 或 `FixedLossScaleManager` (其属性 `drop_overflow_update=False` )。
|
||||
|
|
|
@ -14,7 +14,7 @@ mindspore.nn.Conv1d
|
|||
|
||||
其中, :math:`ccor` 为 `cross-correlation <https://en.wikipedia.org/wiki/Cross-correlation>`_ , :math:`C_{in}` 为输入空间维度, :math:`out_{j}` 对应输出的第 :math:`j` 个空间维度,:math:`j` 的范围在 :math:`[0,C_{out}-1]` 内,
|
||||
:math:`\text{weight}(C_{\text{out}_j}, k)` 是shape为 :math:`(kernel_size)` 的卷积核切片,其中 :math:`\text{kernel_size}` 是卷积核的宽度。 :math:`\text{bias}` 为偏置参数。
|
||||
完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size})` ,其中`group`是在空间维度上分割输入 `x` 的组数。
|
||||
完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size})` ,其中 `group` 是在空间维度上分割输入 `x` 的组数。
|
||||
详细介绍请参考论文 `Gradient Based Learning Applied to Document Recognition <http://vision.stanford.edu/cs598_spring07/papers/Lecun98.pdf>`_ 。
|
||||
|
||||
**参数:**
|
||||
|
@ -30,7 +30,7 @@ mindspore.nn.Conv1d
|
|||
- pad:对输入进行填充。在输入对两侧填充 `padding` 大小的0。如果设置此模式, `padding` 必须大于或等于0。
|
||||
|
||||
- **padding** (int) - 输入两侧填充的数量。值应该要大于等于0,默认值:0。
|
||||
- **dilation** (int) - 卷积核膨胀尺寸。若 :math:`k > 1` ,则kernel间隔 `k` 个元素进行采样。 `k` 取值范围为[1, L]。默认值:1。
|
||||
- **dilation** (int) - 卷积核膨胀尺寸。若 :math:`k > 1` ,则kernel间隔 `k` 个元素进行采样。 `k` 取值范围为[1, L]。默认值:1。
|
||||
- **group** (int) - 将过滤器拆分为组, `in_ channels` 和 `out_channels` 必须可被 `group` 整除。默认值:1。
|
||||
- **has_bias** (bool) - Conv1d层是否添加偏置参数。默认值:False。
|
||||
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重矩阵的初始化方法。它可以是Tensor,str,Initializer或numbers.Number。当使用str时,可选"TruncatedNormal","Normal","Uniform","HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform","he_uniform","ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值:"normal"。
|
||||
|
|
|
@ -19,12 +19,12 @@ mindspore.nn.Conv1dTranspose
|
|||
- **stride** (int) - 卷积核的移动步长,默认值:1。
|
||||
- **pad_mode** (str) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。
|
||||
|
||||
- same:输出的宽度与输入整除 `stride` 后的值相同。若设置该模式,`padding` 的值必须为0。
|
||||
- same:输出的宽度与输入整除 `stride` 后的值相同。若设置该模式, `padding` 的值必须为0。
|
||||
- valid:在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。如果设置此模式,则 `padding` 的值必须为0。
|
||||
- pad:对输入进行填充。 在输入对两侧填充 `padding` 大小的0。如果设置此模式, `padding` 必须大于或等于0。
|
||||
|
||||
- **padding** (int) - 输入两侧填充的数量。默认值:0。
|
||||
- **dilation** (int) - 卷积核膨胀尺寸。若 :math:`k > 1` ,则kernel间隔 `k` 个元素进行采样。 `k` 取值范围为[1, L]。默认值:1。
|
||||
- **dilation** (int) - 卷积核膨胀尺寸。若 :math:`k > 1` ,则kernel间隔 `k` 个元素进行采样。 `k` 取值范围为[1, L]。默认值:1。
|
||||
- **group** (int) - 将过滤器拆分为组, `in_ channels` 和 `out_channels` 必须可被 `group` 整除。当 `group` 大于1时,暂不支持Ascend平台。默认值:1。
|
||||
- **has_bias** (bool) - Conv1dTranspose层是否添加偏置参数。默认值:False。
|
||||
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重矩阵的初始化方法。它可以是Tensor,str,Initializer或numbers.Number。当使用str时,可选"TruncatedNormal","Normal","Uniform","HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform","he_uniform","ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值:"normal"。
|
||||
|
@ -55,7 +55,7 @@ mindspore.nn.Conv1dTranspose
|
|||
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - `in_channels` 、 `out_channels` 、 `kernel_size` 、 `stride` 、 `padding`或 `dilation` 不是int。
|
||||
- **TypeError** - `in_channels` 、 `out_channels` 、 `kernel_size` 、 `stride` 、 `padding` 或 `dilation` 不是int。
|
||||
- **ValueError** - `in_channels` 、 `out_channels` 、 `kernel_size` 、 `stride` 或 `dilation` 小于1。
|
||||
- **ValueError** - `padding` 小于0。
|
||||
- **ValueError** - `pad_mode` 不是"same","valid"或"pad"。
|
||||
|
|
|
@ -13,7 +13,7 @@ mindspore.nn.Conv3d
|
|||
|
||||
其中,:math:`ccor` 为 `cross-correlation <https://en.wikipedia.org/wiki/Cross-correlation>`_ , :math:`C_{in}` 为输入空间维度, :math:`out_{j}` 对应输出的第 :math:`j` 个空间维度,:math:`j` 的范围在 :math:`[0,C_{out}-1]` 内,
|
||||
:math:`\text{weight}(C_{\text{out}_j}, k)`是shape为 :math:`(\text{kernel_size[0]}, \text{kernel_size[1]}, \text{kernel_size[2]})` 的卷积核切片,其中 :math:`\text{kernel_size[0]}` , :math:`\text{kernel_size[1]}和 :math:`\text{kernel_size[2]}` 是卷积核的深度、高度和宽度。 :math:`\text{bias}` 为偏置参数。
|
||||
完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size[0]}, \text{kernel_size[1]}, \text{kernel_size[2]})` ,其中`group`是在空间维度上分割输入 `x` 的组数。
|
||||
完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size[0]}, \text{kernel_size[1]}, \text{kernel_size[2]})` ,其中 `group` 是在空间维度上分割输入 `x` 的组数。
|
||||
详细介绍请参考论文 `Gradient Based Learning Applied to Document Recognition <http://vision.stanford.edu/cs598_spring07/papers/Lecun98.pdf>`_ 。
|
||||
|
||||
**参数:**
|
||||
|
|
|
@ -15,8 +15,8 @@ mindspore.nn.MSELoss
|
|||
.. math::
|
||||
\ell(x, y) =
|
||||
\begin{cases}
|
||||
\operatorname{mean}(L), & \text{if reduction} = \text{`mean';}\\
|
||||
\operatorname{sum}(L), & \text{if reduction} = \text{`sum'.}
|
||||
\operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\
|
||||
\operatorname{sum}(L), & \text{if reduction} = \text{'sum'.}
|
||||
\end{cases}
|
||||
|
||||
**参数:**
|
||||
|
|
|
@ -27,4 +27,4 @@ mindspore.ops.Pow
|
|||
**异常:**
|
||||
|
||||
- **TypeError** - `x` 和 `y` 不是Tensor、number.Number或bool。
|
||||
- **ValueError** - 当`x` 和 `y` 都为Tensor时,它们的shape不相同。
|
||||
- **ValueError** - 当 `x` 和 `y` 都为Tensor时,它们的shape不相同。
|
||||
|
|
|
@ -9,7 +9,7 @@ mindspore.ops.Sub
|
|||
|
||||
out_{i} = x_{i} - y_{i}
|
||||
|
||||
.. note::
|
||||
.. note::
|
||||
- 输入 `x` 和 `y` 遵循 `隐式类型转换规则 <https://www.mindspore.cn/docs/note/zh-CN/master/operator_list_implicit.html>`_ ,使数据类型保持一致。
|
||||
- 输入必须是两个Tensor,或一个Tensor和一个Scalar。
|
||||
- 当输入是两个Tensor时,它们的数据类型不能同时是bool,它们的shape可以广播。
|
||||
|
|
Loading…
Reference in New Issue