diff --git a/docs/api/api_python/dataset/mindspore.dataset.Dataset.rst b/docs/api/api_python/dataset/mindspore.dataset.Dataset.rst index 38d451444ed..9d01f5f2f35 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.Dataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.Dataset.rst @@ -30,7 +30,7 @@ 如果 `batch_size` 为整型,则直接表示每个批处理数据大小; 如果为可调用对象,则可以通过自定义行为动态指定每个批处理数据大小,要求该可调用对象接收一个参数BatchInfo,返回一个整形代表批处理大小,用法请参考样例(3)。 - **drop_remainder** (bool, 可选) - 当最后一个批处理数据包含的数据条目小于 `batch_size` 时,是否将该批处理丢弃,不传递给下一个操作。默认值:False,不丢弃。 - - **num_parallel_workers** (int, 可选) - 指定 `batch `操作的并发进程数/线程数(由参数 `python_multiprocessing` 决定当前为多进程模式或多线程模式)。 + - **num_parallel_workers** (int, 可选) - 指定 `batch` 操作的并发进程数/线程数(由参数 `python_multiprocessing` 决定当前为多进程模式或多线程模式)。 默认值:None,使用mindspore.dataset.config中配置的线程数。 - **per_batch_map** (callable, 可选) - 可调用对象,以(list[Tensor], list[Tensor], ..., BatchInfo)作为输入参数,处理后返回(list[Tensor], list[Tensor],...)作为新的数据列。 输入参数中每个list[Tensor]代表给定数据列中的一批Tensor,list[Tensor]的个数应与 `input_columns` 中传入列名的数量相匹配, diff --git a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.transforms.BassBiquad.rst b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.transforms.BassBiquad.rst index 2789f89e9bf..0552b182bc1 100644 --- a/docs/api/api_python/dataset_audio/mindspore.dataset.audio.transforms.BassBiquad.rst +++ b/docs/api/api_python/dataset_audio/mindspore.dataset.audio.transforms.BassBiquad.rst @@ -8,7 +8,7 @@ mindspore.dataset.audio.transforms.BassBiquad 低频搁架滤波器能够通过所有频率,但将低于搁架的频率提升或衰减指定量,其系统函数为: .. math:: - H(s) = A\frac{s^2 + \frac{\sqrt{A}}{Q}s + A}{As^2 + \frac{\sqrt{A}}{Q}s + 1}` 。 + H(s) = A\frac{s^2 + \frac{\sqrt{A}}{Q}s + A}{As^2 + \frac{\sqrt{A}}{Q}s + 1} 接口实现方式类似于 `SoX库 `_ 。 diff --git a/docs/api/api_python/mindspore.context.rst b/docs/api/api_python/mindspore.context.rst index 28b4deac0f5..c85e5c58cba 100644 --- a/docs/api/api_python/mindspore.context.rst +++ b/docs/api/api_python/mindspore.context.rst @@ -86,7 +86,7 @@ MindSpore context,用于配置当前执行环境,包括执行模式、执行 - **enable_profiling** (bool) - 此参数已弃用,将在下一版本中删除。请使用mindspore.profiler.Profiler API。 - **profiling_options** (str) - 此参数已弃用,将在下一版本中删除。请使用mindspore.profiler.Profiler API。 - **print_file_path** (str):该路径用于保存打印数据。使用时 :class:`mindspore.ops.print` 可以打印输入的张量或字符串信息,使用方法 :func:`mindspore.parse_print` 解析保存的文件。如果设置了此参数,打印数据保存到文件,未设置将显示到屏幕。如果保存的文件已经存在,则将添加时间戳后缀到文件中。将数据保存到文件解决了屏幕打印中的数据丢失问题, 如果未设置,将报告错误:"prompt to set the upper absolute path"。 - - **env_config_path** (str) - 通过``context.set_context(env_config_path="./mindspore_config.json")``来设置MindSpore环境配置文件路径。 + - **env_config_path** (str) - 通过 `context.set_context(env_config_path="./mindspore_config.json")` 来设置MindSpore环境配置文件路径。 配置Running Data Recorder: @@ -96,7 +96,7 @@ MindSpore context,用于配置当前执行环境,包括执行模式、执行 内存重用: - **mem_Reuse**:表示内存复用功能是否打开。设置为True时,将打开内存复用功能。设置为False时,将关闭内存复用功能。 - 有关running data recoder和内存复用配置详细信息,请查看`配置RDR和内存复用 `_。 + 有关running data recoder和内存复用配置详细信息,请查看 `配置RDR和内存复用 `_。 - **precompile_only** (bool) - 表示是否仅预编译网络。默认值:False。设置为True时,仅编译网络,而不执行网络。 @@ -137,7 +137,7 @@ MindSpore context,用于配置当前执行环境,包括执行模式、执行 - **enable_sparse** (bool) - 表示是否启用稀疏特征。默认值:False。有关稀疏特征和稀疏张量的详细信息,请查看 `稀疏张量 `_。 - **grad_for_scalar** (bool): 表示是否获取标量梯度。默认值:False。当 `grad_for_scalar` 设置为True时,则可以导出函数的标量输入。由于后端目前不支持伸缩操作,所以该接口只支持在前端可推演的简单操作。 - **enable_compile_cache** (bool) - 表示是否加载或者保存前端编译的图。当 `enable_compile_cache` 被设置为True时,在第一次执行的过程中,一个硬件无关的编译缓存会被生成并且导出为一个MINDIR文件。当该网络被再次执行时,如果 `enable_compile_cache` 仍然为True并且网络脚本没有被更改,那么这个编译缓存会被加载。注意目前只支持有限的Python脚本更改的自动检测,这意味着可能有正确性风险。默认值:False。这是一个实验特性,可能会被更改或者删除。 - - **compile_cache_path** (str) - 保存前端图编译缓存的路径。默认值:"."。如果目录不存在,系统会自动创建这个目录。缓存会被保存到如下目录:`compile_cache_path/rank_${rank_id}/` 。 `rank_id` 是集群上当前设备的ID。 + - **compile_cache_path** (str) - 保存前端图编译缓存的路径。默认值:"."。如果目录不存在,系统会自动创建这个目录。缓存会被保存到如下目录: `compile_cache_path/rank_${rank_id}/` 。 `rank_id` 是集群上当前设备的ID。 **异常:** diff --git a/docs/api/api_python/mindspore/mindspore.build_train_network.rst b/docs/api/api_python/mindspore/mindspore.build_train_network.rst index 616690e6b82..8692d9798b5 100644 --- a/docs/api/api_python/mindspore/mindspore.build_train_network.rst +++ b/docs/api/api_python/mindspore/mindspore.build_train_network.rst @@ -9,11 +9,11 @@ mindspore.build_train_network - **network** (Cell) – 定义网络结构。 - **optimizer** (Optimizer) – 定义优化器,用于更新权重参数。 - - **loss_fn** (Union[None, Cell]) – 定义损失函数。如果为None,`network` 中应该包含损失函数。默认值:None。 + - **loss_fn** (Union[None, Cell]) – 定义损失函数。如果为None, `network` 中应该包含损失函数。默认值:None。 - **level** (str) – 支持["O0", "O2", "O3", "auto"]。默认值:"O0"。 - **"O0"** - 不变化。 - - **"O2"** - 将网络精度转为float16,`BatchNorm` 和 `loss_fn` 保持float32精度,使用动态调整损失缩放系数(loss scale)的策略。 + - **"O2"** - 将网络精度转为float16, `BatchNorm` 和 `loss_fn` 保持float32精度,使用动态调整损失缩放系数(loss scale)的策略。 - **"O3"** - 将网络精度转为float16,不使用损失缩放策略,并设置 `keep_batchnorm_fp32` 为False。 - **auto** - 为不同处理器设置专家推荐的混合精度等级,如在GPU上设为"O2",在Ascend上设为"O3"。该设置方式可能在部分场景下不适用,建议用户根据具体的网络模型自定义设置 `amp_level` 。 `keep_batchnorm_fp32` , `cast_model_type` 和 `loss_scale_manager` 属性由level自动决定。 @@ -29,4 +29,4 @@ mindspore.build_train_network **异常:** - - **ValueError** - 在CPU上,属性 `loss_scale_manager` 不是 `None` 或 `FixedLossScaleManager`(其属性 `drop_overflow_update=False` )。 + - **ValueError** - 在CPU上,属性 `loss_scale_manager` 不是 `None` 或 `FixedLossScaleManager` (其属性 `drop_overflow_update=False` )。 diff --git a/docs/api/api_python/nn/mindspore.nn.Conv1d.rst b/docs/api/api_python/nn/mindspore.nn.Conv1d.rst index 85c59daf9e8..abb89363572 100644 --- a/docs/api/api_python/nn/mindspore.nn.Conv1d.rst +++ b/docs/api/api_python/nn/mindspore.nn.Conv1d.rst @@ -14,7 +14,7 @@ mindspore.nn.Conv1d 其中, :math:`ccor` 为 `cross-correlation `_ , :math:`C_{in}` 为输入空间维度, :math:`out_{j}` 对应输出的第 :math:`j` 个空间维度,:math:`j` 的范围在 :math:`[0,C_{out}-1]` 内, :math:`\text{weight}(C_{\text{out}_j}, k)` 是shape为 :math:`(kernel_size)` 的卷积核切片,其中 :math:`\text{kernel_size}` 是卷积核的宽度。 :math:`\text{bias}` 为偏置参数。 - 完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size})` ,其中`group`是在空间维度上分割输入 `x` 的组数。 + 完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size})` ,其中 `group` 是在空间维度上分割输入 `x` 的组数。 详细介绍请参考论文 `Gradient Based Learning Applied to Document Recognition `_ 。 **参数:** @@ -30,7 +30,7 @@ mindspore.nn.Conv1d - pad:对输入进行填充。在输入对两侧填充 `padding` 大小的0。如果设置此模式, `padding` 必须大于或等于0。 - **padding** (int) - 输入两侧填充的数量。值应该要大于等于0,默认值:0。 - - **dilation** (int) - 卷积核膨胀尺寸。若 :math:`k > 1` ,则kernel间隔 `k` 个元素进行采样。 `k` 取值范围为[1, L]。默认值:1。 + - **dilation** (int) - 卷积核膨胀尺寸。若 :math:`k > 1` ,则kernel间隔 `k` 个元素进行采样。 `k` 取值范围为[1, L]。默认值:1。 - **group** (int) - 将过滤器拆分为组, `in_ channels` 和 `out_channels` 必须可被 `group` 整除。默认值:1。 - **has_bias** (bool) - Conv1d层是否添加偏置参数。默认值:False。 - **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重矩阵的初始化方法。它可以是Tensor,str,Initializer或numbers.Number。当使用str时,可选"TruncatedNormal","Normal","Uniform","HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform","he_uniform","ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值:"normal"。 diff --git a/docs/api/api_python/nn/mindspore.nn.Conv1dTranspose.rst b/docs/api/api_python/nn/mindspore.nn.Conv1dTranspose.rst index 54780f69fb3..466bb336d21 100644 --- a/docs/api/api_python/nn/mindspore.nn.Conv1dTranspose.rst +++ b/docs/api/api_python/nn/mindspore.nn.Conv1dTranspose.rst @@ -19,12 +19,12 @@ mindspore.nn.Conv1dTranspose - **stride** (int) - 卷积核的移动步长,默认值:1。 - **pad_mode** (str) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。 - - same:输出的宽度与输入整除 `stride` 后的值相同。若设置该模式,`padding` 的值必须为0。 + - same:输出的宽度与输入整除 `stride` 后的值相同。若设置该模式, `padding` 的值必须为0。 - valid:在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。如果设置此模式,则 `padding` 的值必须为0。 - pad:对输入进行填充。 在输入对两侧填充 `padding` 大小的0。如果设置此模式, `padding` 必须大于或等于0。 - **padding** (int) - 输入两侧填充的数量。默认值:0。 - - **dilation** (int) - 卷积核膨胀尺寸。若 :math:`k > 1` ,则kernel间隔 `k` 个元素进行采样。 `k` 取值范围为[1, L]。默认值:1。 + - **dilation** (int) - 卷积核膨胀尺寸。若 :math:`k > 1` ,则kernel间隔 `k` 个元素进行采样。 `k` 取值范围为[1, L]。默认值:1。 - **group** (int) - 将过滤器拆分为组, `in_ channels` 和 `out_channels` 必须可被 `group` 整除。当 `group` 大于1时,暂不支持Ascend平台。默认值:1。 - **has_bias** (bool) - Conv1dTranspose层是否添加偏置参数。默认值:False。 - **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重矩阵的初始化方法。它可以是Tensor,str,Initializer或numbers.Number。当使用str时,可选"TruncatedNormal","Normal","Uniform","HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform","he_uniform","ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值:"normal"。 @@ -55,7 +55,7 @@ mindspore.nn.Conv1dTranspose **异常:** - - **TypeError** - `in_channels` 、 `out_channels` 、 `kernel_size` 、 `stride` 、 `padding`或 `dilation` 不是int。 + - **TypeError** - `in_channels` 、 `out_channels` 、 `kernel_size` 、 `stride` 、 `padding` 或 `dilation` 不是int。 - **ValueError** - `in_channels` 、 `out_channels` 、 `kernel_size` 、 `stride` 或 `dilation` 小于1。 - **ValueError** - `padding` 小于0。 - **ValueError** - `pad_mode` 不是"same","valid"或"pad"。 diff --git a/docs/api/api_python/nn/mindspore.nn.Conv3d.rst b/docs/api/api_python/nn/mindspore.nn.Conv3d.rst index 56f5eb6dee0..20eb1dede24 100644 --- a/docs/api/api_python/nn/mindspore.nn.Conv3d.rst +++ b/docs/api/api_python/nn/mindspore.nn.Conv3d.rst @@ -13,7 +13,7 @@ mindspore.nn.Conv3d 其中,:math:`ccor` 为 `cross-correlation `_ , :math:`C_{in}` 为输入空间维度, :math:`out_{j}` 对应输出的第 :math:`j` 个空间维度,:math:`j` 的范围在 :math:`[0,C_{out}-1]` 内, :math:`\text{weight}(C_{\text{out}_j}, k)`是shape为 :math:`(\text{kernel_size[0]}, \text{kernel_size[1]}, \text{kernel_size[2]})` 的卷积核切片,其中 :math:`\text{kernel_size[0]}` , :math:`\text{kernel_size[1]}和 :math:`\text{kernel_size[2]}` 是卷积核的深度、高度和宽度。 :math:`\text{bias}` 为偏置参数。 - 完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size[0]}, \text{kernel_size[1]}, \text{kernel_size[2]})` ,其中`group`是在空间维度上分割输入 `x` 的组数。 + 完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size[0]}, \text{kernel_size[1]}, \text{kernel_size[2]})` ,其中 `group` 是在空间维度上分割输入 `x` 的组数。 详细介绍请参考论文 `Gradient Based Learning Applied to Document Recognition `_ 。 **参数:** diff --git a/docs/api/api_python/nn/mindspore.nn.MSELoss.rst b/docs/api/api_python/nn/mindspore.nn.MSELoss.rst index 55429847649..929301d463c 100644 --- a/docs/api/api_python/nn/mindspore.nn.MSELoss.rst +++ b/docs/api/api_python/nn/mindspore.nn.MSELoss.rst @@ -15,8 +15,8 @@ mindspore.nn.MSELoss .. math:: \ell(x, y) = \begin{cases} - \operatorname{mean}(L), & \text{if reduction} = \text{`mean';}\\ - \operatorname{sum}(L), & \text{if reduction} = \text{`sum'.} + \operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\ + \operatorname{sum}(L), & \text{if reduction} = \text{'sum'.} \end{cases} **参数:** diff --git a/docs/api/api_python/ops/mindspore.ops.Pow.rst b/docs/api/api_python/ops/mindspore.ops.Pow.rst index 3e443256056..4c9170429d9 100644 --- a/docs/api/api_python/ops/mindspore.ops.Pow.rst +++ b/docs/api/api_python/ops/mindspore.ops.Pow.rst @@ -27,4 +27,4 @@ mindspore.ops.Pow **异常:** - **TypeError** - `x` 和 `y` 不是Tensor、number.Number或bool。 - - **ValueError** - 当`x` 和 `y` 都为Tensor时,它们的shape不相同。 + - **ValueError** - 当 `x` 和 `y` 都为Tensor时,它们的shape不相同。 diff --git a/docs/api/api_python/ops/mindspore.ops.Sub.rst b/docs/api/api_python/ops/mindspore.ops.Sub.rst index 04ec48afec3..6d809e320e0 100644 --- a/docs/api/api_python/ops/mindspore.ops.Sub.rst +++ b/docs/api/api_python/ops/mindspore.ops.Sub.rst @@ -9,7 +9,7 @@ mindspore.ops.Sub out_{i} = x_{i} - y_{i} - .. note:: + .. note:: - 输入 `x` 和 `y` 遵循 `隐式类型转换规则 `_ ,使数据类型保持一致。 - 输入必须是两个Tensor,或一个Tensor和一个Scalar。 - 当输入是两个Tensor时,它们的数据类型不能同时是bool,它们的shape可以广播。