modify doc

This commit is contained in:
xumengjuan1 2022-01-19 17:23:39 +08:00
parent 8d40dc2caa
commit 27798e43ea
10 changed files with 18 additions and 18 deletions

View File

@ -30,7 +30,7 @@
如果 `batch_size` 为整型,则直接表示每个批处理数据大小;
如果为可调用对象则可以通过自定义行为动态指定每个批处理数据大小要求该可调用对象接收一个参数BatchInfo返回一个整形代表批处理大小用法请参考样例3
- **drop_remainder** (bool, 可选) - 当最后一个批处理数据包含的数据条目小于 `batch_size`是否将该批处理丢弃不传递给下一个操作。默认值False不丢弃。
- **num_parallel_workers** (int, 可选) - 指定 `batch `操作的并发进程数/线程数(由参数 `python_multiprocessing` 决定当前为多进程模式或多线程模式)。
- **num_parallel_workers** (int, 可选) - 指定 `batch` 操作的并发进程数/线程数(由参数 `python_multiprocessing` 决定当前为多进程模式或多线程模式)。
默认值None使用mindspore.dataset.config中配置的线程数。
- **per_batch_map** (callable, 可选) - 可调用对象,以(list[Tensor], list[Tensor], ..., BatchInfo)作为输入参数,处理后返回(list[Tensor], list[Tensor],...)作为新的数据列。
输入参数中每个list[Tensor]代表给定数据列中的一批Tensorlist[Tensor]的个数应与 `input_columns` 中传入列名的数量相匹配,

View File

@ -8,7 +8,7 @@ mindspore.dataset.audio.transforms.BassBiquad
低频搁架滤波器能够通过所有频率,但将低于搁架的频率提升或衰减指定量,其系统函数为:
.. math::
H(s) = A\frac{s^2 + \frac{\sqrt{A}}{Q}s + A}{As^2 + \frac{\sqrt{A}}{Q}s + 1}` 。
H(s) = A\frac{s^2 + \frac{\sqrt{A}}{Q}s + A}{As^2 + \frac{\sqrt{A}}{Q}s + 1}
接口实现方式类似于 `SoX库 <http://sox.sourceforge.net/sox.html>`_

View File

@ -86,7 +86,7 @@ MindSpore context用于配置当前执行环境包括执行模式、执行
- **enable_profiling** (bool) - 此参数已弃用将在下一版本中删除。请使用mindspore.profiler.Profiler API。
- **profiling_options** (str) - 此参数已弃用将在下一版本中删除。请使用mindspore.profiler.Profiler API。
- **print_file_path** (str):该路径用于保存打印数据。使用时 :class:`mindspore.ops.print` 可以打印输入的张量或字符串信息,使用方法 :func:`mindspore.parse_print` 解析保存的文件。如果设置了此参数,打印数据保存到文件,未设置将显示到屏幕。如果保存的文件已经存在,则将添加时间戳后缀到文件中。将数据保存到文件解决了屏幕打印中的数据丢失问题, 如果未设置,将报告错误:"prompt to set the upper absolute path"。
- **env_config_path** (str) - 通过``context.set_context(env_config_path="./mindspore_config.json")``来设置MindSpore环境配置文件路径。
- **env_config_path** (str) - 通过 `context.set_context(env_config_path="./mindspore_config.json")` 来设置MindSpore环境配置文件路径。
配置Running Data Recorder
@ -96,7 +96,7 @@ MindSpore context用于配置当前执行环境包括执行模式、执行
内存重用:
- **mem_Reuse**表示内存复用功能是否打开。设置为True时将打开内存复用功能。设置为False时将关闭内存复用功能。
有关running data recoder和内存复用配置详细信息请查看`配置RDR和内存复用 <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/custom_debugging_info.html>`_
有关running data recoder和内存复用配置详细信息请查看 `配置RDR和内存复用 <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/custom_debugging_info.html>`_
- **precompile_only** (bool) - 表示是否仅预编译网络。默认值False。设置为True时仅编译网络而不执行网络。
@ -137,7 +137,7 @@ MindSpore context用于配置当前执行环境包括执行模式、执行
- **enable_sparse** (bool) - 表示是否启用稀疏特征。默认值False。有关稀疏特征和稀疏张量的详细信息请查看 `稀疏张量 <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/tensor.html#sparse-tensor>`_
- **grad_for_scalar** (bool) 表示是否获取标量梯度。默认值False。当 `grad_for_scalar` 设置为True时则可以导出函数的标量输入。由于后端目前不支持伸缩操作所以该接口只支持在前端可推演的简单操作。
- **enable_compile_cache** (bool) - 表示是否加载或者保存前端编译的图。当 `enable_compile_cache` 被设置为True时在第一次执行的过程中一个硬件无关的编译缓存会被生成并且导出为一个MINDIR文件。当该网络被再次执行时如果 `enable_compile_cache` 仍然为True并且网络脚本没有被更改那么这个编译缓存会被加载。注意目前只支持有限的Python脚本更改的自动检测这意味着可能有正确性风险。默认值False。这是一个实验特性可能会被更改或者删除。
- **compile_cache_path** (str) - 保存前端图编译缓存的路径。默认值:"."。如果目录不存在,系统会自动创建这个目录。缓存会被保存到如下目录:`compile_cache_path/rank_${rank_id}/``rank_id` 是集群上当前设备的ID。
- **compile_cache_path** (str) - 保存前端图编译缓存的路径。默认值:"."。如果目录不存在,系统会自动创建这个目录。缓存会被保存到如下目录: `compile_cache_path/rank_${rank_id}/``rank_id` 是集群上当前设备的ID。
**异常:**

View File

@ -9,11 +9,11 @@ mindspore.build_train_network
- **network** (Cell) 定义网络结构。
- **optimizer** (Optimizer) 定义优化器,用于更新权重参数。
- **loss_fn** (Union[None, Cell]) 定义损失函数。如果为None`network` 中应该包含损失函数。默认值None。
- **loss_fn** (Union[None, Cell]) 定义损失函数。如果为None `network` 中应该包含损失函数。默认值None。
- **level** (str) 支持["O0", "O2", "O3", "auto"]。默认值:"O0"。
- **"O0"** - 不变化。
- **"O2"** - 将网络精度转为float16`BatchNorm``loss_fn` 保持float32精度使用动态调整损失缩放系数loss scale的策略。
- **"O2"** - 将网络精度转为float16 `BatchNorm``loss_fn` 保持float32精度使用动态调整损失缩放系数loss scale的策略。
- **"O3"** - 将网络精度转为float16不使用损失缩放策略并设置 `keep_batchnorm_fp32` 为False。
- **auto** - 为不同处理器设置专家推荐的混合精度等级如在GPU上设为"O2"在Ascend上设为"O3"。该设置方式可能在部分场景下不适用,建议用户根据具体的网络模型自定义设置 `amp_level``keep_batchnorm_fp32` `cast_model_type``loss_scale_manager` 属性由level自动决定。
@ -29,4 +29,4 @@ mindspore.build_train_network
**异常:**
- **ValueError** - 在CPU上属性 `loss_scale_manager` 不是 `None``FixedLossScaleManager`(其属性 `drop_overflow_update=False` )。
- **ValueError** - 在CPU上属性 `loss_scale_manager` 不是 `None``FixedLossScaleManager` (其属性 `drop_overflow_update=False` )。

View File

@ -14,7 +14,7 @@ mindspore.nn.Conv1d
其中, :math:`ccor``cross-correlation <https://en.wikipedia.org/wiki/Cross-correlation>`_ :math:`C_{in}` 为输入空间维度, :math:`out_{j}` 对应输出的第 :math:`j` 个空间维度,:math:`j` 的范围在 :math:`[0C_{out}-1]` 内,
:math:`\text{weight}(C_{\text{out}_j}, k)` 是shape为 :math:`(kernel_size)` 的卷积核切片,其中 :math:`\text{kernel_size}` 是卷积核的宽度。 :math:`\text{bias}` 为偏置参数。
完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size})` ,其中`group`是在空间维度上分割输入 `x` 的组数。
完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size})` ,其中 `group` 是在空间维度上分割输入 `x` 的组数。
详细介绍请参考论文 `Gradient Based Learning Applied to Document Recognition <http://vision.stanford.edu/cs598_spring07/papers/Lecun98.pdf>`_
**参数:**
@ -30,7 +30,7 @@ mindspore.nn.Conv1d
- pad对输入进行填充。在输入对两侧填充 `padding` 大小的0。如果设置此模式 `padding` 必须大于或等于0。
- **padding** (int) - 输入两侧填充的数量。值应该要大于等于0默认值0。
- **dilation** (int) - 卷积核膨胀尺寸。若 :math:`k > 1` 则kernel间隔 `k` 个元素进行采样。 k 取值范围为[1, L]。默认值1。
- **dilation** (int) - 卷积核膨胀尺寸。若 :math:`k > 1` 则kernel间隔 `k` 个元素进行采样。 `k` 取值范围为[1, L]。默认值1。
- **group** (int) - 将过滤器拆分为组, `in_ channels``out_channels` 必须可被 `group` 整除。默认值1。
- **has_bias** (bool) - Conv1d层是否添加偏置参数。默认值False。
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重矩阵的初始化方法。它可以是TensorstrInitializer或numbers.Number。当使用str时可选"TruncatedNormal""Normal""Uniform""HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform""he_uniform""ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值"normal"。

View File

@ -19,12 +19,12 @@ mindspore.nn.Conv1dTranspose
- **stride** (int) - 卷积核的移动步长默认值1。
- **pad_mode** (str) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。
- same输出的宽度与输入整除 `stride` 后的值相同。若设置该模式,`padding` 的值必须为0。
- same输出的宽度与输入整除 `stride` 后的值相同。若设置该模式, `padding` 的值必须为0。
- valid在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。如果设置此模式`padding` 的值必须为0。
- pad对输入进行填充。 在输入对两侧填充 `padding` 大小的0。如果设置此模式 `padding` 必须大于或等于0。
- **padding** (int) - 输入两侧填充的数量。默认值0。
- **dilation** (int) - 卷积核膨胀尺寸。若 :math:`k > 1` 则kernel间隔 `k` 个元素进行采样。 k 取值范围为[1, L]。默认值1。
- **dilation** (int) - 卷积核膨胀尺寸。若 :math:`k > 1` 则kernel间隔 `k` 个元素进行采样。 `k` 取值范围为[1, L]。默认值1。
- **group** (int) - 将过滤器拆分为组, `in_ channels``out_channels` 必须可被 `group` 整除。当 `group` 大于1时暂不支持Ascend平台。默认值1。
- **has_bias** (bool) - Conv1dTranspose层是否添加偏置参数。默认值False。
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重矩阵的初始化方法。它可以是TensorstrInitializer或numbers.Number。当使用str时可选"TruncatedNormal""Normal""Uniform""HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform""he_uniform""ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值"normal"。
@ -55,7 +55,7 @@ mindspore.nn.Conv1dTranspose
**异常:**
- **TypeError** - `in_channels``out_channels``kernel_size``stride``padding``dilation` 不是int。
- **TypeError** - `in_channels``out_channels``kernel_size``stride``padding` `dilation` 不是int。
- **ValueError** - `in_channels``out_channels``kernel_size``stride``dilation` 小于1。
- **ValueError** - `padding` 小于0。
- **ValueError** - `pad_mode` 不是"same""valid"或"pad"。

View File

@ -13,7 +13,7 @@ mindspore.nn.Conv3d
其中,:math:`ccor``cross-correlation <https://en.wikipedia.org/wiki/Cross-correlation>`_ :math:`C_{in}` 为输入空间维度, :math:`out_{j}` 对应输出的第 :math:`j` 个空间维度,:math:`j` 的范围在 :math:`[0C_{out}-1]` 内,
:math:`\text{weight}(C_{\text{out}_j}, k)`是shape为 :math:`(\text{kernel_size[0]}, \text{kernel_size[1]}, \text{kernel_size[2]})` 的卷积核切片,其中 :math:`\text{kernel_size[0]}` , :math:`\text{kernel_size[1]}和 :math:`\text{kernel_size[2]}` 是卷积核的深度、高度和宽度。 :math:`\text{bias}` 为偏置参数。
完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size[0]}, \text{kernel_size[1]}, \text{kernel_size[2]})` ,其中`group`是在空间维度上分割输入 `x` 的组数。
完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size[0]}, \text{kernel_size[1]}, \text{kernel_size[2]})` ,其中 `group` 是在空间维度上分割输入 `x` 的组数。
详细介绍请参考论文 `Gradient Based Learning Applied to Document Recognition <http://vision.stanford.edu/cs598_spring07/papers/Lecun98.pdf>`_
**参数:**

View File

@ -15,8 +15,8 @@ mindspore.nn.MSELoss
.. math::
\ell(x, y) =
\begin{cases}
\operatorname{mean}(L), & \text{if reduction} = \text{`mean';}\\
\operatorname{sum}(L), & \text{if reduction} = \text{`sum'.}
\operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\
\operatorname{sum}(L), & \text{if reduction} = \text{'sum'.}
\end{cases}
**参数:**

View File

@ -27,4 +27,4 @@ mindspore.ops.Pow
**异常:**
- **TypeError** - `x``y` 不是Tensor、number.Number或bool。
- **ValueError** - 当`x``y` 都为Tensor时它们的shape不相同。
- **ValueError** - 当 `x``y` 都为Tensor时它们的shape不相同。

View File

@ -9,7 +9,7 @@ mindspore.ops.Sub
out_{i} = x_{i} - y_{i}
.. note::
.. note::
- 输入 `x` 和 `y` 遵循 `隐式类型转换规则 <https://www.mindspore.cn/docs/note/zh-CN/master/operator_list_implicit.html>`_ ,使数据类型保持一致。
- 输入必须是两个Tensor或一个Tensor和一个Scalar。
- 当输入是两个Tensor时它们的数据类型不能同时是bool它们的shape可以广播。