fix Chinese API problems

This commit is contained in:
zhanglin 2021-12-27 23:16:04 +08:00
parent 54526c4b0a
commit ea8793b431
7 changed files with 28 additions and 26 deletions

View File

@ -41,7 +41,8 @@
- **batch_size** (int or function) - 每个批处理数据包含的条数。参数需要是int或可调用对象该对象接收1个参数即BatchInfo。
- **drop_remainder** (bool, optional) - 是否删除最后一个数据条数小于批处理大小的batch默认值为False。如果为True并且最后一个批次中数据行数少于 `batch_size`,则这些数据将被丢弃,不会传递给后续的操作。
- **num_parallel_workers** (int, optional) - 用于进行batch操作的的线程数threads默认值为None。
- **per_batch_map** (callable, optional) - 是一个以(list[Tensor], list[Tensor], ..., BatchInfo)作为输入参数的可调用对象。每个list[Tensor]代表给定列上的一批Tensor。入参中list[Tensor]的个数应与 `input_columns` 中传入列名的数量相匹配。该可调用对象的最后一个参数始终是BatchInfo对象。`per_batch_map` 应返回(list[Tensor], list[Tensor], ...)。其出中list[Tensor]的个数应与输入相同。如果输出列数与输入列数不一致,则需要指定 `output_columns`。 - **input_columns** (Union[str, list[str]], optional):由输入列名组成的列表。如果 `per_batch_map` 不为None列表中列名的个数应与 `per_batch_map` 中包含的列数匹配默认为None
- **per_batch_map** (callable, optional) - 是一个以(list[Tensor], list[Tensor], ..., BatchInfo)作为输入参数的可调用对象每个list[Tensor]代表给定列上的一批Tensor入参中list[Tensor]的个数应与 `input_columns` 中传入列名的数量相匹配该可调用对象的最后一个参数始终是BatchInfo对象。`per_batch_map` 应返回(list[Tensor], list[Tensor], ...)其输出list[Tensor]的个数应与输入相同,如果输出列数与输入列数不一致,则需要指定 `output_columns`
- **input_columns** (Union[str, list[str]], optional):由输入列名组成的列表。如果 `per_batch_map` 不为None列表中列名的个数应与 `per_batch_map` 中包含的列数匹配默认为None
- **output_columns** (Union[str, list[str]], optional) - 当前操作所有输出列的列名列表。如果len(input_columns) != len(output_columns)则此参数必须指定。此列表中列名的数量必须与给定操作的输出列数相匹配默认为None输出列将与输入列具有相同的名称
- **column_order** (Union[str, list[str]], optional) - 指定整个数据集对象中包含的所有列名的顺序。如果len(input_column) != len(output_column),则此参数必须指定。 注意:这里的列名不仅仅是在 `input_columns``output_columns` 中指定的列。
- **pad_info** (dict, optional) - 用于对给定列进行填充。例如 `pad_info={"col1":([224,224],0)}` ,则将列名为"col1"的列填充到大小为[224,224]的张量并用0填充缺失的值默认为None)。
@ -358,8 +359,8 @@
**样例:**
>> # dataset是数据集类的实例化对象
>> batch_size = dataset.get_batch_size()
>>> # dataset是数据集类的实例化对象
>>> batch_size = dataset.get_batch_size()
.. py:method:: get_class_indexing()
@ -371,8 +372,8 @@
**样例:**
>> # dataset是数据集类的实例化对象
>> class_indexing = dataset.get_class_indexing()
>>> # dataset是数据集类的实例化对象
>>> class_indexing = dataset.get_class_indexing()
.. py:method:: get_col_names()
@ -385,8 +386,8 @@
**样例:**
>> # dataset是数据集类的实例化对象
>> col_names = dataset.get_col_names()
>>> # dataset是数据集类的实例化对象
>>> col_names = dataset.get_col_names()
.. py:method:: get_dataset_size()

View File

@ -50,7 +50,7 @@ mindspore.dataset.GraphData
.. py:method:: get_all_neighbors(node_list, neighbor_type, output_format=<OutputFormat.NORMAL: 0。
获取 `node_list` 所有节点的邻居,以 `neighbor_type` 类型返回。格式的定义参见以下示例1表示两个节点之间连接0表示不连接。
获取 `node_list` 所有节点的相邻节点,以 `neighbor_type` 类型返回。格式的定义参见以下示例1表示两个节点之间连接0表示不连接。
.. list-table:: 邻接矩阵
:widths: 20 20 20 20 20
@ -139,12 +139,12 @@ mindspore.dataset.GraphData
**参数:**
- **node_list** (Union[list, numpy.ndarray]) - 给定的节点列表。
- **neighbor_type** (int) - 指定邻节点的类型。
- **neighbor_type** (int) - 指定邻节点的类型。
- **output_format** (OutputFormat, 可选) - 输出存储格式默认为mindspore.dataset.engine.OutputFormat.NORMAL取值范围[OutputFormat.NORMAL, OutputFormat.COO, OutputFormat.CSR]。
**返回:**
对于普通格式或COO格式将返回numpy.ndarray类型的数组表示邻节点。如果指定了CSR格式将返回两个numpy.ndarray数组第一个表示偏移表第二个表示邻节点。
对于普通格式或COO格式将返回numpy.ndarray类型的数组表示邻节点。如果指定了CSR格式将返回两个numpy.ndarray数组第一个表示偏移表第二个表示邻节点。
**样例:**
@ -227,17 +227,17 @@ mindspore.dataset.GraphData
.. py:method:: get_neg_sampled_neighbors(node_list, neg_neighbor_num, neg_neighbor_type)
获取 `node_list` 列表中节所有点的负样本邻居,以 `neg_neighbor_type` 类型返回。
获取 `node_list` 列表中节所有点的负样本相邻节点,以 `neg_neighbor_type` 类型返回。
**参数:**
- **node_list** (Union[list, numpy.ndarray]) - 包含节点的列表。
- **neg_neighbor_num** (int) - 采样的邻居数量。
- **neg_neighbor_type** (int) - 指定负样本邻居的类型。
- **neg_neighbor_num** (int) - 采样的相邻节点数量。
- **neg_neighbor_type** (int) - 指定负样本相邻节点的类型。
**返回:**
numpy.ndarray包含邻居的数组。
numpy.ndarray包含相邻节点的数组。
**样例:**
@ -292,13 +292,13 @@ mindspore.dataset.GraphData
.. py:method:: get_sampled_neighbors(node_list, neighbor_nums, neighbor_types, strategy=<SamplingStrategy.RANDOM: 0>)
获取已采样邻居信息。此API支持多跳邻居采样。即将上一次采样结果作为下一跳采样的输入最多允许6跳。采样结果平铺成列表格式为[input node, 1-hop sampling result, 2-hop samling result ...]
获取已采样相邻节点信息。此API支持多跳相邻节点采样。即将上一次采样结果作为下一跳采样的输入最多允许6跳。采样结果平铺成列表格式为[input node, 1-hop sampling result, 2-hop samling result ...]
**参数:**
- **node_list** (Union[list, numpy.ndarray]) - 包含节点的列表。
- **neighbor_nums** (Union[list, numpy.ndarray]) - 每跳采样的邻居数。
- **neighbor_types** (Union[list, numpy.ndarray]) - 每跳采样的邻居类型。
- **neighbor_nums** (Union[list, numpy.ndarray]) - 每跳采样的相邻节点数。
- **neighbor_types** (Union[list, numpy.ndarray]) - 每跳采样的相邻节点类型。
- **strategy** (SamplingStrategy, 可选) - 采样策略默认为mindspore.dataset.engine.SamplingStrategy.RANDOM。取值范围[SamplingStrategy.RANDOM, SamplingStrategy.EDGE_WEIGHT]。
- **SamplingStrategy.RANDOM**:随机抽样,带放回采样。
@ -306,7 +306,7 @@ mindspore.dataset.GraphData
**返回:**
numpy.ndarray包含邻居的数组。
numpy.ndarray包含相邻节点的数组。
*样例:**
@ -340,7 +340,7 @@ mindspore.dataset.GraphData
- **meta_path** (list[int]) - 每个步长的节点类型。
- **step_home_param** (float, 可选) - 返回node2vec算法中的超参默认为1.0)。
- **step_away_param** (float, 可选) - node2vec算法中的in和out超参默认为1.0)。
- **default_node** (int, 可选) - 如果找不到更多邻居,则为默认节点(默认值为-1表示不给定节点
- **default_node** (int, 可选) - 如果找不到更多相邻节点,则为默认节点(默认值为-1表示不给定节点
**返回:**

View File

@ -20,7 +20,7 @@ mindspore.dataset.SubsetRandomSampler
**异常:**
- **TypeError** `indices` 的类型不是数
- **TypeError** `indices` 的类型不是数。
- **TypeError** `num_samples` 不是整数值。
- **ValueError** `num_samples` 为负值。

View File

@ -22,7 +22,7 @@ mindspore.dataset.SubsetSampler
**异常:**
- **TypeError** 索引元素的类型不是数字
- **TypeError** `indices` 的类型不是整数
- **TypeError** `num_samples` 不是整数值。
- **ValueError** `num_samples` 为负值。

View File

@ -23,7 +23,7 @@ mindspore.dataset.WeightedRandomSampler
**异常:**
- **TypeError** `weights` 元素的类型不是number
- **TypeError** `weights` 元素的类型不是数字
- **TypeError** `num_samples` 不是整数值。
- **TypeError** `replacement` 不是布尔值。
- **RuntimeError** `weights` 为空或全为零。

View File

@ -8,8 +8,8 @@ mindspore.nn.CosineDecayLR
对于当前stepdecayed_learning_rate[current_step]的计算公式为:
.. math::
decayed\_learning\_rate[current\_step] = min\_lr + 0.5 * (max\_lr - min\_lr) *
(1 + cos(\frac{current\_step}{decay\_steps}\pi))
decayed\_learning\_rate[current\_step] = &min\_lr + 0.5 * (max\_lr - min\_lr) *\\
&(1 + cos(\frac{current\_step}{decay\_steps}\pi))
**参数:**

View File

@ -8,8 +8,9 @@ mindspore.nn.PolynomialDecayLR
对于当前step计算decayed_learning_rate[current_step]的公式为:
.. math::
decayed\_learning\_rate[current\_step] = (learning\_rate - end\_learning\_rate) *
(1 - tmp\_step / tmp\_decay\_steps)^{power} + end\_learning\_rate
decayed\_learning\_rate[current\_step] = &(learning\_rate - end\_learning\_rate) *\\
&(1 - tmp\_step / tmp\_decay\_steps)^{power}\\
&+ end\_learning\_rate
其中,