!29339 modify apiformat

Merge pull request !29339 from xumengjuan1/code_docs_xmjformat4
This commit is contained in:
i-robot 2022-01-20 11:40:30 +00:00 committed by Gitee
commit 1518ffbb9f
No known key found for this signature in database
GPG Key ID: 173E9B9CA92EEF8F
28 changed files with 60 additions and 165 deletions

View File

@ -1,7 +1,7 @@
mindspore.dataset.CLUEDataset
=============================
.. py:class:: mindspore.dataset.CLUEDataset(dataset_files, task='AFQMC', usage='train', num_samples=None, num_parallel_workers=None, shuffle=<Shuffle.GLOBAL: 'global'>, num_shards=None, shard_id=None, cache=None)
.. py:class:: mindspore.dataset.CLUEDataset(dataset_files, task='AFQMC', usage='train', num_samples=None, num_parallel_workers=None, shuffle=Shuffle.GLOBAL, num_shards=None, shard_id=None, cache=None)
读取和解析CLUE数据集的源文件构建数据集。

View File

@ -1,7 +1,7 @@
mindspore.dataset.CSVDataset
=============================
.. py:class:: mindspore.dataset.CSVDataset(dataset_files, field_delim=',', column_defaults=None, column_names=None, num_samples=None, num_parallel_workers=None, shuffle=<Shuffle.GLOBAL: 'global'>, num_shards=None, shard_id=None, cache=None)
.. py:class:: mindspore.dataset.CSVDataset(dataset_files, field_delim=',', column_defaults=None, column_names=None, num_samples=None, num_parallel_workers=None, shuffle=Shuffle.GLOBAL, num_shards=None, shard_id=None, cache=None)
读取和解析CSV数据文件构建数据集。生成的数据集的列名和列类型取决于输入的CSV文件。

View File

@ -6,13 +6,13 @@
对传入的多个数据集对象进行拼接操作,也可以使用"+"运算符来进行数据集进行拼接。
.. note::用于拼接的多个数据集对象每个数据集对象的列名、每列数据的维度rank和数据类型必须相同。
.. note::
用于拼接的多个数据集对象每个数据集对象的列名、每列数据的维度rank和数据类型必须相同。
**参数:**
- **datasets** (Union[list, Dataset]) - 与当前数据集对象拼接的数据集对象列表或单个数据集对象。
**返回:**
Dataset拼接后的数据集对象。

View File

@ -4,7 +4,7 @@
**参数:**
`apply_func` (function):数据集处理函数,要求该函数的输入是一个 `Dataset` 对象,返回的是处理后的 `Dataset` 对象。
**apply_func** (function):数据集处理函数,要求该函数的输入是一个 `Dataset` 对象,返回的是处理后的 `Dataset` 对象。
**返回:**

View File

@ -9,9 +9,9 @@
- **source** (Union[Callable, Iterable, Random Accessible]) - 一个Python的可调用对象可以是可迭代的Python对象或支持随机访问的Python对象。
- 如果`source`是可调用对象,要求`source`对象可以通过 `source().next()` 的方式返回一个由NumPy数组构成的元组。
- 如果`source`是可迭代对象,要求`source`对象通过 `iter(source).next()` 的方式返回一个由NumPy数组构成的元组。
- 如果`source`是支持随机访问的对象,要求`source`对象通过 `source[idx]` 的方式返回一个由NumPy数组构成的元组。
- 如果 `source` 是可调用对象,要求 `source` 对象可以通过 `source().next()` 的方式返回一个由NumPy数组构成的元组。
- 如果 `source` 是可迭代对象,要求 `source` 对象通过 `iter(source).next()` 的方式返回一个由NumPy数组构成的元组。
- 如果 `source` 是支持随机访问的对象,要求 `source` 对象通过 `source[idx]` 的方式返回一个由NumPy数组构成的元组。
- **column_names** (Union[str, list[str]],可选) - 指定数据集生成的列名默认值None不指定。用户可以通过此参数或 `schema` 参数指定列名。
- **column_types** (list[mindspore.dtype],可选) - 指定生成数据集各个数据列的数据类型默认值None不指定。
如果未指定该参数,则自动推断类型;如果指定了该参数,将在数据输出时做类型匹配检查。

View File

@ -37,7 +37,7 @@ mindspore.dataset.GraphData
**TypeError**:参数 `edge_type` 的类型不为整型。
.. py:method:: get_all_neighbors(node_list, neighbor_type, output_format=<OutputFormat.NORMAL)
.. py:method:: get_all_neighbors(node_list, neighbor_type, output_format=OutputFormat.NORMAL)
获取 `node_list` 所有节点的相邻节点,以 `neighbor_type` 类型返回。格式的定义参见以下示例1表示两个节点之间连接0表示不连接。
@ -245,7 +245,7 @@ mindspore.dataset.GraphData
- **TypeError** - 参数 `node_list` 的类型不为列表或numpy.ndarray。
- **TypeError** - 参数 `feature_types` 的类型不为列表或numpy.ndarray。
.. py:method:: get_sampled_neighbors(node_list, neighbor_nums, neighbor_types, strategy=<SamplingStrategy.RANDOM: 0>)
.. py:method:: get_sampled_neighbors(node_list, neighbor_nums, neighbor_types, strategy=SamplingStrategy.RANDOM)
获取已采样相邻节点信息。此API支持多跳相邻节点采样。即将上一次采样结果作为下一跳采样的输入最多允许6跳。采样结果平铺成列表格式为[input node, 1-hop sampling result, 2-hop samling result ...]
@ -256,8 +256,8 @@ mindspore.dataset.GraphData
- **neighbor_types** (Union[list, numpy.ndarray]) - 每跳采样的相邻节点类型。
- **strategy** (SamplingStrategy, 可选) - 采样策略默认值mindspore.dataset.SamplingStrategy.RANDOM。取值范围[SamplingStrategy.RANDOM, SamplingStrategy.EDGE_WEIGHT]。
- **SamplingStrategy.RANDOM**:随机抽样,带放回采样。
- **SamplingStrategy.EDGE_WEIGHT**:以边缘权重为概率进行采样。
- **SamplingStrategy.RANDOM**:随机抽样,带放回采样。
- **SamplingStrategy.EDGE_WEIGHT**:以边缘权重为概率进行采样。
**返回:**

View File

@ -19,7 +19,7 @@ mindspore.dataset.ImageFolderDataset
- **decode** (bool, 可选) - 是否对读取的图片进行解码操作默认值False不解码。
- **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数默认值None。指定此参数后 `num_samples` 表示每个分片的最大样本数。
- **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号默认值None。只有当指定了 `num_shards` 时才能指定此参数。
- **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/cache.html>`_ 。默认值None不使用缓存。
- **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读 `单节点数据缓存 <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/cache.html>`_ 。默认值None不使用缓存。
**异常:**

View File

@ -11,7 +11,7 @@
- **columns_list** (list[str],可选) - 指定从MindRecord文件中读取的数据列。默认值None读取所有列。
- **num_parallel_workers** (int, 可选) - 指定读取数据的工作线程数。默认值None使用mindspore.dataset.config中配置的线程数。
- **shuffle** (Union[bool, Shuffle], 可选) - 每个epoch中数据混洗的模式支持传入bool类型与枚举类型进行指定默认值mindspore.dataset.Shuffle.GLOBAL。
如果`shuffle`为False则不混洗如果`shuffle`为True等同于将 `shuffle` 设置为mindspore.dataset.Shuffle.GLOBAL。
如果 `shuffle` 为False则不混洗如果 `shuffle` 为True等同于将 `shuffle` 设置为mindspore.dataset.Shuffle.GLOBAL。
通过传入枚举变量设置数据混洗的模式:
- **Shuffle.GLOBAL**:混洗文件和文件中的数据。
@ -24,7 +24,7 @@
- **padded_sample** (dict, 可选): 指定额外添加到数据集的样本,可用于在分布式训练时补齐分片数据,注意字典的键名需要与 `column_list` 指定的列名相同。默认值None不添加样本。需要与 `num_padded` 参数同时使用。
- **num_padded** (int, 可选) - 指定额外添加的数据集样本的数量。在分布式训练时可用于为数据集补齐样本,使得总样本数量可被 `num_shards` 整除。默认值None不添加样本。需要与 `padded_sample` 参数同时使用。
- **num_samples** (int, 可选) - 指定从数据集中读取的样本数。默认值None读取所有样本。
- **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/cache.html>`_ 。默认值None不使用缓存。
- **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读 `单节点数据缓存 <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/cache.html>`_ 。默认值None不使用缓存。
**异常:**

View File

@ -1,7 +1,7 @@
mindspore.dataset.TFRecordDataset
=================================
.. py:class:: mindspore.dataset.TFRecordDataset(dataset_files, schema=None, columns_list=None, num_samples=None, num_parallel_workers=None, shuffle=<Shuffle.GLOBAL: 'global'>, num_shards=None, shard_id=None, shard_equal_rows=False, cache=None)
.. py:class:: mindspore.dataset.TFRecordDataset(dataset_files, schema=None, columns_list=None, num_samples=None, num_parallel_workers=None, shuffle=Shuffle.GLOBAL, num_shards=None, shard_id=None, shard_equal_rows=False, cache=None)
读取和解析TFData格式的数据文件构建数据集。生成的数据集的列名和列类型取决于TFRecord文件中的保存的列名与类型。

View File

@ -1,7 +1,7 @@
mindspore.dataset.TextFileDataset
==================================
.. py:class:: mindspore.dataset.TextFileDataset(dataset_files, num_samples=None, num_parallel_workers=None, shuffle=<Shuffle.GLOBAL: 'global'>, num_shards=None, shard_id=None, cache=None)
.. py:class:: mindspore.dataset.TextFileDataset(dataset_files, num_samples=None, num_parallel_workers=None, shuffle=Shuffle.GLOBAL, num_shards=None, shard_id=None, cache=None)
读取和解析文本文件构建数据集。生成的数据集有一个数据列: `[text]` 类型为string。

View File

@ -1,7 +1,7 @@
mindspore.dataset.audio.transforms.AmplitudeToDB
=================================================
.. py:class:: mindspore.dataset.audio.transforms.AmplitudeToDB(stype=<ScaleType.POWER: 'power'>, ref_value=1.0, amin=1e-10, top_db=80.0)
.. py:class:: mindspore.dataset.audio.transforms.AmplitudeToDB(stype=ScaleType.POWER, ref_value=1.0, amin=1e-10, top_db=80.0)
将输入音频从振幅/功率标度转换为分贝标度。

View File

@ -10,7 +10,7 @@ mindspore.dataset.audio.transforms.FrequencyMasking
**参数:**
- **iid_masks** (bool, 可选) - 是否施加随机掩码默认值False。
- **freq_mask_param** (int, 可选) - 当 `iid_masks` 为True时掩码长度将从[0, freq_mask_param]中均匀采样;当 `iid_masks` 为False时直接使用该值作为掩码长度。取值范围为[0, freq_length],其中 `freq_length` 为音频波形在频域的长度默认值0。
- **frequency_mask_param** (int, 可选) - 当 `iid_masks` 为True时掩码长度将从[0, freq_mask_param]中均匀采样;当 `iid_masks` 为False时直接使用该值作为掩码长度。取值范围为[0, freq_length],其中 `freq_length` 为音频波形在频域的长度默认值0。
- **mask_start** (int, 可选) - 添加掩码的起始位置,只有当 `iid_masks` 为True时该值才会生效。取值范围为[0, freq_length - freq_mask_param],其中 `freq_length` 为音频波形在频域的长度默认值0。
- **mask_value** (float, 可选) - 掩码填充值默认值0.0。

View File

@ -1,7 +1,7 @@
mindspore.DynamicLossScaleManager
==================================
.. py:class:: mindspore.DynamicLossScaleManager(init_loss_scale=2**24, scale_factor=2, scale_window=2000)
.. py:class:: mindspore.DynamicLossScaleManager(init_loss_scale=2 ** 24, scale_factor=2, scale_window=2000)
动态调整损失缩放系数的管理器,继承自 :class:`mindspore.LossScaleManager`
@ -11,15 +11,6 @@ mindspore.DynamicLossScaleManager
- **scale_factor** (int) - 放大/缩小倍数。默认值2。
- **scale_window** (int) - 无溢出时的连续正常step的最大数量。默认值2000。
**ÑùÀý£º**
>>> from mindspore import Model, nn, DynamicLossScaleManager
>>>
>>> net = Net()
>>> loss_scale_manager = DynamicLossScaleManager()
>>> optim = nn.Momentum(params=net.trainable_params(), learning_rate=0.1, momentum=0.9)
>>> model = Model(net, loss_scale_manager=loss_scale_manager, optimizer=optim)
.. py:method:: get_drop_overflow_update()
该值表示是否在发生溢出时放弃本轮参数更新。

View File

@ -32,39 +32,6 @@
如果你想设置boost模式, 可以将 `boost_config_dict` 设置为 `boost.py`
**样例:**
>>> from mindspore import Model, nn
>>>
>>> class Net(nn.Cell):
... def __init__(self, num_class=10, num_channel=1):
... super(Net, self).__init__()
... self.conv1 = nn.Conv2d(num_channel, 6, 5, pad_mode='valid')
... self.conv2 = nn.Conv2d(6, 16, 5, pad_mode='valid')
... self.fc1 = nn.Dense(16*5*5, 120, weight_init='ones')
... self.fc2 = nn.Dense(120, 84, weight_init='ones')
... self.fc3 = nn.Dense(84, num_class, weight_init='ones')
... self.relu = nn.ReLU()
... self.max_pool2d = nn.MaxPool2d(kernel_size=2, stride=2)
... self.flatten = nn.Flatten()
...
... def construct(self, x):
... x = self.max_pool2d(self.relu(self.conv1(x)))
... x = self.max_pool2d(self.relu(self.conv2(x)))
... x = self.flatten(x)
... x = self.relu(self.fc1(x))
... x = self.relu(self.fc2(x))
... x = self.fc3(x)
... return x
>>>
>>> net = Net()
>>> loss = nn.SoftmaxCrossEntropyWithLogits()
>>> optim = nn.Momentum(params=net.trainable_params(), learning_rate=0.1, momentum=0.9)
>>> model = Model(net, loss_fn=loss, optimizer=optim, metrics=None)
>>> # 如何构建数据集,请参考官方网站的数据集相关章节
>>> dataset = create_custom_dataset()
>>> model.train(2, dataset)
.. py:method:: build(train_dataset=None, valid_dataset=None, sink_size=-1, epoch=1, jit_config=None)
数据下沉模式下构建计算图和数据图。
@ -160,15 +127,6 @@
返回预测结果类型是Tensor或Tensor元组。
**样例:**
>>> import mindspore as ms
>>> from mindspore import Model, Tensor
>>>
>>> input_data = Tensor(np.random.randint(0, 255, [1, 1, 32, 32]), ms.float32)
>>> model = Model(Net())
>>> result = model.predict(input_data)
.. py:method:: predict_network
:property:
@ -195,19 +153,6 @@
- **dataset_sink_mode** (bool) 数据是否直接下沉至处理器进行处理。使用PYNATIVE_MODE模式或CPU处理器时模型训练流程将以非下沉模式执行。默认值True。
- **sink_size** (int) 控制每次数据下沉的数据量。`dataset_sink_mode` 为False时 `sink_size` 无效。如果sink_size=-1则每一次epoch下沉完整数据集。如果sink_size>0则每一次epoch下沉数据量为sink_size的数据集。默认值-1。
**样例:**
>>> from mindspore import Model, nn, FixedLossScaleManager
>>>
>>> # 如何构建数据集,请参考官方网站的数据集相关章节
>>> dataset = create_custom_dataset()
>>> net = Net()
>>> loss = nn.SoftmaxCrossEntropyWithLogits()
>>> loss_scale_manager = FixedLossScaleManager()
>>> optim = nn.Momentum(params=net.trainable_params(), learning_rate=0.1, momentum=0.9)
>>> model = Model(net, loss_fn=loss, optimizer=optim, metrics=None, loss_scale_manager=loss_scale_manager)
>>> model.train(2, dataset)
.. py:method:: train_network
:property:

View File

@ -16,10 +16,10 @@ mindspore.ParameterTuple
- **prefix** (str) - Parameter的namespace此前缀将会被添加到Parametertuple中的Parameter的name属性中。
- **init** (Union[Tensor, str, numbers.Number]) - 对Parametertuple中Parameter的shape和类型进行克隆并根据传入的 `init` 设置数值。默认值:'same'。
如果 `init``Tensor` 则新参数的数值与该Tensor相同
如果 `init``numbers.Number` ,则设置新参数的数值为该值;
如果 `init``str` ,则按照 `Initializer` 模块中对应的同名的初始化方法进行数值设定;
如果 `init` 是'same'则新参数的数值与原Parameter相同。
如果 `init``Tensor` 则新参数的数值与该Tensor相同
如果 `init``numbers.Number` ,则设置新参数的数值为该值;
如果 `init``str` ,则按照 `Initializer` 模块中对应的同名的初始化方法进行数值设定;
如果 `init` 是'same'则新参数的数值与原Parameter相同。
**返回:**

View File

@ -224,15 +224,6 @@ mindspore.Tensor
维度与输入张量的相同的Tensor。输出张量的维度必须遵守广播规则。广播规则指输出张量的维度需要扩展为输入张量的维度如果目标张量的维度大于输入张量的维度则不满足广播规则。
>>> import numpy as np
>>> from mindspore import Tensor
>>> from mindspore import dtype as mstype
>>> x = Tensor([[1, 2, 3], [1, 2, 3]], dtype=mstype.float32)
>>> y = Tensor(np.ones((1, 3)), dtype=mstype.float32)
>>> output = x.expand_as(y)
>>> print(output)
Not support shapes for broadcast, x_shape: (2, 3), target shape: (1, 3)
.. py:method:: fill(value)
用标量值填充数组。

View File

@ -39,13 +39,13 @@ mindspore.nn.Adagrad
- **update_slots** (bool) - 如果为True则更新累加器 :math:`h` 。默认值True。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
- **weight_decay** (Union[float, int]) - 要乘以权重的权重衰减值必须大于等于0.0。默认值0.0。
**输入:**
- **grads** (tuple[Tensor]) - 优化器中 `params` 的梯度形状shape`params` 相同。
**grads** (tuple[Tensor]) - 优化器中 `params` 的梯度形状shape`params` 相同。
**输出:**

View File

@ -45,7 +45,7 @@ mindspore.nn.Adam
- **use_nesterov** (bool) - 是否使用Nesterov Accelerated Gradient (NAG)算法更新梯度。如果为True使用NAG更新梯度。如果为False则在不使用NAG的情况下更新梯度。默认值False。
- **weight_decay** (float) - 权重衰减L2 penalty。必须大于等于0。默认值0.0。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
**输入:**

View File

@ -48,7 +48,7 @@ mindspore.nn.AdamOffload
- **use_nesterov** (bool) - 是否使用Nesterov Accelerated Gradient (NAG)算法更新梯度。如果为True使用NAG更新梯度。如果为False则在不使用NAG的情况下更新梯度。默认值False。
- **weight_decay** (float) - 权重衰减L2 penalty。必须大于等于0。默认值0.0。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
**输入:**

View File

@ -54,7 +54,7 @@ mindspore.nn.AdamWeightDecay
**输出:**
**tuple** [bool]所有元素都为True。
tuple[bool]所有元素都为True。
**异常:**

View File

@ -12,18 +12,6 @@
- **auto_prefix** (bool) 是否自动为Cell及其子Cell生成NameSpace。`auto_prefix` 的设置影响网络参数的命名如果设置为True则自动给网络参数的名称添加前缀否则不添加前缀。默认值True。
- **flags** (dict) - Cell的配置信息目前用于绑定Cell和数据集。用户也通过该参数自定义Cell属性。默认值None。
**样例** :
>>> import mindspore.nn as nn
>>> import mindspore.ops as ops
>>> class MyCell(nn.Cell):
... def __init__(self):
... super(MyCell, self).__init__()
... self.relu = ops.ReLU()
...
... def construct(self, x):
... return self.relu(x)
.. py:method:: add_flags(**flags)
为Cell添加自定义属性。
@ -96,7 +84,7 @@
**参数:**
- **cell** (str) 需要进行迭代的Cell。默认值None。
- **cells** (str) 需要进行迭代的Cell。默认值None。
- **name_prefix** (str) 作用域。默认值:''。
**返回:**
@ -210,7 +198,7 @@
- **KeyError** 如果子Cell的名称不正确或与其他子Cell名称重复。
- **TypeError** 如果子Cell的类型不正确。
.. py:method:: insert_param_to_cell(param_name, param, check_name=True)
.. py:method:: insert_param_to_cell(param_name, param, check_name_contain_dot=True)
向当前Cell添加参数。
@ -220,7 +208,7 @@
- **param_name** (str) 参数名称。
- **param** (Parameter) 要插入到Cell的参数。
- **check_name** (bool) 是否对 `param_name` 中的"."进行检查。默认值True。
- **check_name_contain_dot** (bool) 是否对 `param_name` 中的"."进行检查。默认值True。
**异常:**
@ -235,8 +223,7 @@
**参数:**
- **params** (dict) 用于初始化数据图的参数字典。
**params** (dict) 用于初始化数据图的参数字典。
.. py:method:: name_cells()
@ -308,7 +295,7 @@
- 当应用了重计算且内存充足时,可以配置'mp_comm_recompute=False'来提升性能。
- 当应用了重计算但内存不足时,可以配置'parallel_optimizer_comm_recompute=True'来节省内存。有相同融合group的Cell应该配置相同的parallel_optimizer_comm_recompute。
**参数**
**参数**
- **mp_comm_recompute** (bool) 表示在自动并行或半自动并行模式下指定Cell内部由模型并行引入的通信操作是否重计算。默认值True。
- **parallel_optimizer_comm_recompute** (bool) 表示在自动并行或半自动并行模式下指定Cell内部由优化器并行引入的AllGather通信是否重计算。默认值False。
@ -370,15 +357,15 @@
通过并行策略对输入张量进行切分。
**参数**
**参数**
- **inputs** (tuple) construct方法的输入。
**inputs** (tuple) construct方法的输入。
.. py:method:: set_param_fl(push_to_server=False, pull_from_server=False, requires_aggr=True)
设置参数与服务器交互的方式。
**参数**
**参数**
- **push_to_server** (bool) 是否将参数推送到服务器。默认值False。
- **pull_from_server** (bool) 是否从服务器提取参数。默认值False。
@ -390,7 +377,7 @@
.. note:: 只在运行的任务处于参数服务器模式时有效。
**参数**
**参数**
- **recurse** (bool) 是否设置子网络的可训练参数。默认值True。
- **init_in_server** (bool) 是否在服务器上初始化由参数服务器更新的可训练参数。默认值False。

View File

@ -12,7 +12,7 @@ mindspore.nn.Conv3d
\sum_{k = 0}^{C_{in} - 1} \text{ccor}({\text{weight}(C_{\text{out}_j}, k), \text{X}(N_i, k)})
其中,:math:`ccor``cross-correlation <https://en.wikipedia.org/wiki/Cross-correlation>`_ :math:`C_{in}` 为输入空间维度, :math:`out_{j}` 对应输出的第 :math:`j` 个空间维度,:math:`j` 的范围在 :math:`[0C_{out}-1]` 内,
:math:`\text{weight}(C_{\text{out}_j}, k)`是shape为 :math:`(\text{kernel_size[0]}, \text{kernel_size[1]}, \text{kernel_size[2]})` 的卷积核切片,其中 :math:`\text{kernel_size[0]}` , :math:`\text{kernel_size[1]}和 :math:`\text{kernel_size[2]}` 是卷积核的深度、高度和宽度。 :math:`\text{bias}` 为偏置参数, :math:`\text{X}` 为输入Tensor。
:math:`\text{weight}(C_{\text{out}_j}, k)` 是shape为 :math:`(\text{kernel_size[0]}, \text{kernel_size[1]}, \text{kernel_size[2]})` 的卷积核切片,其中 :math:`\text{kernel_size[0]}` , :math:`\text{kernel_size[1]}和 :math:`\text{kernel_size[2]}` 是卷积核的深度、高度和宽度。 :math:`\text{bias}` 为偏置参数, :math:`\text{X}` 为输入Tensor。
完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size[0]}, \text{kernel_size[1]}, \text{kernel_size[2]})` ,其中 `group` 是在空间维度上分割输入 `x` 的组数。
详细介绍请参考论文 `Gradient Based Learning Applied to Document Recognition <http://vision.stanford.edu/cs598_spring07/papers/Lecun98.pdf>`_
@ -29,7 +29,7 @@ mindspore.nn.Conv3d
- pad对输入进行填充。 在输入的深度、高度和宽度方向上填充 `padding` 大小的0。如果设置此模式 `padding` 必须大于或等于0。
- **padding** (Union(int, tuple[int])) - 输入的深度、高度和宽度方向上填充的数量。数据类型为int或包含6个整数的tuple。如果 `padding` 是一个整数,则前部、后部、顶部,底部,左边和右边的填充都等于 `padding` 。如果 `padding` 是6个整数的tuple则前部、尾部、顶部、底部、左边和右边的填充分别等于填充padding[0]、padding[1]、padding[2]、padding[3]、padding[4]和padding[5]。值应该要大于等于0默认值0。
- **dilation** (Union[int, tuple[int]]) - 三维卷积核膨胀尺寸。数据类型为int或三个整数的tuple。若 :math:`k > 1` 则kernel间隔 `k` 个元素进行采样。深度、高度和宽度方向上的 k ,其取值范围分别为[1, D]、[1, H]和[1, W]。默认值1。
- **dilation** (Union[int, tuple[int]]) - 三维卷积核膨胀尺寸。数据类型为int或三个整数的tuple。若 :math:`k > 1` 则kernel间隔 `k` 个元素进行采样。深度、高度和宽度方向上的 `k` ,其取值范围分别为[1, D]、[1, H]和[1, W]。默认值1。
- **group** (int) - 将过滤器拆分为组, `in_channels``out_channels` 必须可被 `group` 整除。默认值1。当前仅支持1。
- **has_bias** (bool) - Conv3d层是否添加偏置参数。默认值False。
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。它可以是TensorstrInitializer或numbers.Number。当使用str时可选"TruncatedNormal""Normal""Uniform""HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform""he_uniform""ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值"normal"。

View File

@ -20,18 +20,3 @@ mindspore.nn.Jvp
- **net_output** (Tensor or Tuple of Tensor) - 输入网络的正向计算结果。
- **jvp** (Tensor or Tuple of Tensor) - 雅可比向量积的结果。
**支持平台:**
``Ascend`` ``GPU`` ``CPU``
**样例:**
>>> from mindspore.nn import Jvp
>>> class Net(nn.Cell):
... def construct(self, x, y):
... return x**3 + y
>>> x = Tensor(np.array([[1, 2], [3, 4]]).astype(np.float32))
>>> y = Tensor(np.array([[1, 2], [3, 4]]).astype(np.float32))
>>> v = Tensor(np.array([[1, 1], [1, 1]]).astype(np.float32))
>>> output = Jvp(Net())(x, y, (v, v))

View File

@ -5,7 +5,7 @@
.. note::
micro_size必须大于或等于流水线stage的个数。
** 参数:**
**参数:**
- **network** (Cell) - 要修饰的目标网络。
- **micro_size** (int) - MicroBatch大小。

View File

@ -49,7 +49,7 @@ mindspore.nn.SGD
- **weight_decay** (float): 权重衰减L2 penalty必须大于等于0。默认值0.0。
- **nesterov** (bool): 启用Nesterov动量。如果使用Nesterov动量必须为正阻尼必须等于0.0。默认值False。
.. include:: mindspore.nn.optim_arg_loss_scale.rst
.. include:: mindspore.nn.optim_arg_loss_scale.rst
**输入:**

View File

@ -18,23 +18,23 @@ mindspore.nn.Conv2d
**参数:**
- **in_channels** (`int`) Conv2d层输入Tensor的空间维度。
- **out_channels** (`dict`) - Conv2d层输出Tensor的空间维度。
- **kernel_size** (`Union[int, tuple[int]]`) 指定二维卷积核的高度和宽度。数据类型为整型或两个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。两个整数的tuple分别表示卷积核的高度和宽度。
- **stride** (`Union[int, tuple[int]]`) 二维卷积核的移动步长。数据类型为整型或两个整型的tuple。一个整数表示在高度和宽度方向的移动步长均为该值。两个整数的tuple分别表示在高度和宽度方向的移动步长。默认值1。
- **pad_mode** (`str`) 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。
- **in_channels** (`int`) Conv2d层输入Tensor的空间维度。
- **out_channels** (`dict`) - Conv2d层输出Tensor的空间维度。
- **kernel_size** (`Union[int, tuple[int]]`) 指定二维卷积核的高度和宽度。数据类型为整型或两个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。两个整数的tuple分别表示卷积核的高度和宽度。
- **stride** (`Union[int, tuple[int]]`) 二维卷积核的移动步长。数据类型为整型或两个整型的tuple。一个整数表示在高度和宽度方向的移动步长均为该值。两个整数的tuple分别表示在高度和宽度方向的移动步长。默认值1。
- **pad_mode** (`str`) 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。
- **same**:输出的高度和宽度分别与输入整除 `stride` 后的值相同。若设置该模式,`padding` 的值必须为0。
- **valid**:在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。如果设置此模式,则 `padding` 的值必须为0。
- **pad**:对输入进行填充。在输入的高度和宽度方向上填充 `padding` 大小的0。如果设置此模式 `padding` 必须大于或等于0。
- **same**:输出的高度和宽度分别与输入整除 `stride` 后的值相同。若设置该模式,`padding` 的值必须为0。
- **valid**:在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。如果设置此模式,则 `padding` 的值必须为0。
- **pad**:对输入进行填充。在输入的高度和宽度方向上填充 `padding` 大小的0。如果设置此模式 `padding` 必须大于或等于0。
- **padding** (`Union[int, tuple[int]]`) 输入的高度和宽度方向上填充的数量。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple那么上、下、左、右的填充分别等于 `padding[0]``padding[1]``padding[2]``padding[3]` 。值应该要大于等于0默认值0。
- **dilation** (`Union[int, tuple[int]]`) 二维卷积核膨胀尺寸。数据类型为整型或具有两个整型的tuple。若 :math:`k > 1` 则kernel间隔 `k` 个元素进行采样。垂直和水平方向上的 k ,其取值范围分别为[1, H]和[1, W]。默认值1。
- **group** (`int`) 将过滤器拆分为组, `in_channels``out_channels` 必须可被 `group` 整除。如果组数等于 `in_channels``out_channels` 这个二维卷积层也被称为二维深度卷积层。默认值1.
- **has_bias** (`bool`) Conv2d层是否添加偏置参数。默认值False。
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。它可以是TensorstrInitializer或numbers.Number。当使用str时可选"TruncatedNormal""Normal""Uniform""HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform""he_uniform""ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值"normal"。
- **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。可以使用的初始化方法与"weight_init"相同。更多细节请参考Initializer的值。默认值"zeros"。
- **data_format** (`str`) 数据格式的可选值有"NHWC""NCHW"。默认值:"NCHW"。
- **padding** (`Union[int, tuple[int]]`) 输入的高度和宽度方向上填充的数量。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple那么上、下、左、右的填充分别等于 `padding[0]``padding[1]``padding[2]``padding[3]` 。值应该要大于等于0默认值0。
- **dilation** (`Union[int, tuple[int]]`) 二维卷积核膨胀尺寸。数据类型为整型或具有两个整型的tuple。若 :math:`k > 1` 则kernel间隔 `k` 个元素进行采样。垂直和水平方向上的 k ,其取值范围分别为[1, H]和[1, W]。默认值1。
- **group** (`int`) 将过滤器拆分为组, `in_channels``out_channels` 必须可被 `group` 整除。如果组数等于 `in_channels``out_channels` 这个二维卷积层也被称为二维深度卷积层。默认值1.
- **has_bias** (`bool`) Conv2d层是否添加偏置参数。默认值False。
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。它可以是TensorstrInitializer或numbers.Number。当使用str时可选"TruncatedNormal""Normal""Uniform""HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform""he_uniform""ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值"normal"。
- **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。可以使用的初始化方法与"weight_init"相同。更多细节请参考Initializer的值。默认值"zeros"。
- **data_format** (`str`) 数据格式的可选值有"NHWC""NCHW"。默认值:"NCHW"。
**输入:**

View File

@ -19,5 +19,6 @@ mindspore.nn.probability.distribution.TransformedDistribution
**异常:**
- **ValueError** - bijector不是Bijector类distribution不是Distribution类。
- **TypeError** - bijector不是Bijector类。
- **TypeError** - distribution不是Distribution类。

View File

@ -25,10 +25,5 @@ mindspore.ops.Log
**异常:**
- **TypeError** - `x` 不是Tensor。
**TypeError** - `x` 不是Tensor。
>>> x = Tensor(np.array([1.0, 2.0, 4.0]), mindspore.float32)
>>> log = ops.Log()
>>> output = log(x)
>>> print(output)
[0. 0.6931472 1.3862944]