!27873 [MS][API][DOC]There are some problems in Chinese API doc,mostly in dataset
Merge pull request !27873 from longvoyage/master
This commit is contained in:
commit
8961541339
|
@ -41,7 +41,8 @@
|
|||
- **batch_size** (int or function) - 每个批处理数据包含的条数。参数需要是int或可调用对象,该对象接收1个参数,即BatchInfo。
|
||||
- **drop_remainder** (bool, optional) - 是否删除最后一个数据条数小于批处理大小的batch(默认值为False)。如果为True,并且最后一个批次中数据行数少于 `batch_size`,则这些数据将被丢弃,不会传递给后续的操作。
|
||||
- **num_parallel_workers** (int, optional) - 用于进行batch操作的的线程数(threads),默认值为None。
|
||||
- **per_batch_map** (callable, optional) - 是一个以(list[Tensor], list[Tensor], ..., BatchInfo)作为输入参数的可调用对象。每个list[Tensor]代表给定列上的一批Tensor。入参中list[Tensor]的个数应与 `input_columns` 中传入列名的数量相匹配。该可调用对象的最后一个参数始终是BatchInfo对象。`per_batch_map` 应返回(list[Tensor], list[Tensor], ...)。其出中list[Tensor]的个数应与输入相同。如果输出列数与输入列数不一致,则需要指定 `output_columns`。 - **input_columns** (Union[str, list[str]], optional):由输入列名组成的列表。如果 `per_batch_map` 不为None,列表中列名的个数应与 `per_batch_map` 中包含的列数匹配(默认为None)。
|
||||
- **per_batch_map** (callable, optional) - 是一个以(list[Tensor], list[Tensor], ..., BatchInfo)作为输入参数的可调用对象,每个list[Tensor]代表给定列上的一批Tensor,入参中list[Tensor]的个数应与 `input_columns` 中传入列名的数量相匹配,该可调用对象的最后一个参数始终是BatchInfo对象。`per_batch_map` 应返回(list[Tensor], list[Tensor], ...),其输出list[Tensor]的个数应与输入相同,如果输出列数与输入列数不一致,则需要指定 `output_columns`。
|
||||
- **input_columns** (Union[str, list[str]], optional):由输入列名组成的列表。如果 `per_batch_map` 不为None,列表中列名的个数应与 `per_batch_map` 中包含的列数匹配(默认为None)。
|
||||
- **output_columns** (Union[str, list[str]], optional) - 当前操作所有输出列的列名列表。如果len(input_columns) != len(output_columns),则此参数必须指定。此列表中列名的数量必须与给定操作的输出列数相匹配(默认为None,输出列将与输入列具有相同的名称)。
|
||||
- **column_order** (Union[str, list[str]], optional) - 指定整个数据集对象中包含的所有列名的顺序。如果len(input_column) != len(output_column),则此参数必须指定。 注意:这里的列名不仅仅是在 `input_columns` 和 `output_columns` 中指定的列。
|
||||
- **pad_info** (dict, optional) - 用于对给定列进行填充。例如 `pad_info={"col1":([224,224],0)}` ,则将列名为"col1"的列填充到大小为[224,224]的张量,并用0填充缺失的值(默认为None)。
|
||||
|
@ -358,8 +359,8 @@
|
|||
|
||||
**样例:**
|
||||
|
||||
>> # dataset是数据集类的实例化对象
|
||||
>> batch_size = dataset.get_batch_size()
|
||||
>>> # dataset是数据集类的实例化对象
|
||||
>>> batch_size = dataset.get_batch_size()
|
||||
|
||||
.. py:method:: get_class_indexing()
|
||||
|
||||
|
@ -371,8 +372,8 @@
|
|||
|
||||
**样例:**
|
||||
|
||||
>> # dataset是数据集类的实例化对象
|
||||
>> class_indexing = dataset.get_class_indexing()
|
||||
>>> # dataset是数据集类的实例化对象
|
||||
>>> class_indexing = dataset.get_class_indexing()
|
||||
|
||||
|
||||
.. py:method:: get_col_names()
|
||||
|
@ -385,8 +386,8 @@
|
|||
|
||||
**样例:**
|
||||
|
||||
>> # dataset是数据集类的实例化对象
|
||||
>> col_names = dataset.get_col_names()
|
||||
>>> # dataset是数据集类的实例化对象
|
||||
>>> col_names = dataset.get_col_names()
|
||||
|
||||
.. py:method:: get_dataset_size()
|
||||
|
||||
|
|
|
@ -50,7 +50,7 @@ mindspore.dataset.GraphData
|
|||
|
||||
.. py:method:: get_all_neighbors(node_list, neighbor_type, output_format=<OutputFormat.NORMAL: 0。
|
||||
|
||||
获取 `node_list` 所有节点的邻居,以 `neighbor_type` 类型返回。格式的定义参见以下示例:1表示两个节点之间连接,0表示不连接。
|
||||
获取 `node_list` 所有节点的相邻节点,以 `neighbor_type` 类型返回。格式的定义参见以下示例:1表示两个节点之间连接,0表示不连接。
|
||||
|
||||
.. list-table:: 邻接矩阵
|
||||
:widths: 20 20 20 20 20
|
||||
|
@ -139,12 +139,12 @@ mindspore.dataset.GraphData
|
|||
**参数:**
|
||||
|
||||
- **node_list** (Union[list, numpy.ndarray]) - 给定的节点列表。
|
||||
- **neighbor_type** (int) - 指定邻居节点的类型。
|
||||
- **neighbor_type** (int) - 指定相邻节点的类型。
|
||||
- **output_format** (OutputFormat, 可选) - 输出存储格式(默认为mindspore.dataset.engine.OutputFormat.NORMAL)取值范围:[OutputFormat.NORMAL, OutputFormat.COO, OutputFormat.CSR]。
|
||||
|
||||
**返回:**
|
||||
|
||||
对于普通格式或COO格式,将返回numpy.ndarray类型的数组表示邻居节点。如果指定了CSR格式,将返回两个numpy.ndarray数组,第一个表示偏移表,第二个表示邻居节点。
|
||||
对于普通格式或COO格式,将返回numpy.ndarray类型的数组表示相邻节点。如果指定了CSR格式,将返回两个numpy.ndarray数组,第一个表示偏移表,第二个表示相邻节点。
|
||||
|
||||
**样例:**
|
||||
|
||||
|
@ -227,17 +227,17 @@ mindspore.dataset.GraphData
|
|||
|
||||
.. py:method:: get_neg_sampled_neighbors(node_list, neg_neighbor_num, neg_neighbor_type)
|
||||
|
||||
获取 `node_list` 列表中节所有点的负样本邻居,以 `neg_neighbor_type` 类型返回。
|
||||
获取 `node_list` 列表中节所有点的负样本相邻节点,以 `neg_neighbor_type` 类型返回。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **node_list** (Union[list, numpy.ndarray]) - 包含节点的列表。
|
||||
- **neg_neighbor_num** (int) - 采样的邻居数量。
|
||||
- **neg_neighbor_type** (int) - 指定负样本邻居的类型。
|
||||
- **neg_neighbor_num** (int) - 采样的相邻节点数量。
|
||||
- **neg_neighbor_type** (int) - 指定负样本相邻节点的类型。
|
||||
|
||||
**返回:**
|
||||
|
||||
numpy.ndarray,包含邻居的数组。
|
||||
numpy.ndarray,包含相邻节点的数组。
|
||||
|
||||
**样例:**
|
||||
|
||||
|
@ -292,13 +292,13 @@ mindspore.dataset.GraphData
|
|||
|
||||
.. py:method:: get_sampled_neighbors(node_list, neighbor_nums, neighbor_types, strategy=<SamplingStrategy.RANDOM: 0>)
|
||||
|
||||
获取已采样邻居信息。此API支持多跳邻居采样。即将上一次采样结果作为下一跳采样的输入,最多允许6跳。采样结果平铺成列表,格式为[input node, 1-hop sampling result, 2-hop samling result ...]
|
||||
获取已采样相邻节点信息。此API支持多跳相邻节点采样。即将上一次采样结果作为下一跳采样的输入,最多允许6跳。采样结果平铺成列表,格式为[input node, 1-hop sampling result, 2-hop samling result ...]
|
||||
|
||||
**参数:**
|
||||
|
||||
- **node_list** (Union[list, numpy.ndarray]) - 包含节点的列表。
|
||||
- **neighbor_nums** (Union[list, numpy.ndarray]) - 每跳采样的邻居数。
|
||||
- **neighbor_types** (Union[list, numpy.ndarray]) - 每跳采样的邻居类型。
|
||||
- **neighbor_nums** (Union[list, numpy.ndarray]) - 每跳采样的相邻节点数。
|
||||
- **neighbor_types** (Union[list, numpy.ndarray]) - 每跳采样的相邻节点类型。
|
||||
- **strategy** (SamplingStrategy, 可选) - 采样策略(默认为mindspore.dataset.engine.SamplingStrategy.RANDOM)。取值范围:[SamplingStrategy.RANDOM, SamplingStrategy.EDGE_WEIGHT]。
|
||||
|
||||
- **SamplingStrategy.RANDOM**:随机抽样,带放回采样。
|
||||
|
@ -306,7 +306,7 @@ mindspore.dataset.GraphData
|
|||
|
||||
**返回:**
|
||||
|
||||
numpy.ndarray,包含邻居的数组。
|
||||
numpy.ndarray,包含相邻节点的数组。
|
||||
|
||||
*样例:**
|
||||
|
||||
|
@ -340,7 +340,7 @@ mindspore.dataset.GraphData
|
|||
- **meta_path** (list[int]) - 每个步长的节点类型。
|
||||
- **step_home_param** (float, 可选) - 返回node2vec算法中的超参(默认为1.0)。
|
||||
- **step_away_param** (float, 可选) - node2vec算法中的in和out超参(默认为1.0)。
|
||||
- **default_node** (int, 可选) - 如果找不到更多邻居,则为默认节点(默认值为-1,表示不给定节点)。
|
||||
- **default_node** (int, 可选) - 如果找不到更多相邻节点,则为默认节点(默认值为-1,表示不给定节点)。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
|
|
@ -20,7 +20,7 @@ mindspore.dataset.SubsetRandomSampler
|
|||
|
||||
**异常:**
|
||||
|
||||
- **TypeError:** `indices` 的类型不是数字。
|
||||
- **TypeError:** `indices` 的类型不是整数。
|
||||
- **TypeError:** `num_samples` 不是整数值。
|
||||
- **ValueError:** `num_samples` 为负值。
|
||||
|
||||
|
|
|
@ -22,7 +22,7 @@ mindspore.dataset.SubsetSampler
|
|||
|
||||
**异常:**
|
||||
|
||||
- **TypeError:** 索引元素的类型不是数字。
|
||||
- **TypeError:** `indices` 的类型不是整数。
|
||||
- **TypeError:** `num_samples` 不是整数值。
|
||||
- **ValueError:** `num_samples` 为负值。
|
||||
|
||||
|
|
|
@ -23,7 +23,7 @@ mindspore.dataset.WeightedRandomSampler
|
|||
|
||||
**异常:**
|
||||
|
||||
- **TypeError:** `weights` 元素的类型不是number。
|
||||
- **TypeError:** `weights` 元素的类型不是数字。
|
||||
- **TypeError:** `num_samples` 不是整数值。
|
||||
- **TypeError:** `replacement` 不是布尔值。
|
||||
- **RuntimeError:** `weights` 为空或全为零。
|
||||
|
|
|
@ -8,8 +8,8 @@ mindspore.nn.CosineDecayLR
|
|||
对于当前step,decayed_learning_rate[current_step]的计算公式为:
|
||||
|
||||
.. math::
|
||||
decayed\_learning\_rate[current\_step] = min\_lr + 0.5 * (max\_lr - min\_lr) *
|
||||
(1 + cos(\frac{current\_step}{decay\_steps}\pi))
|
||||
decayed\_learning\_rate[current\_step] = &min\_lr + 0.5 * (max\_lr - min\_lr) *\\
|
||||
&(1 + cos(\frac{current\_step}{decay\_steps}\pi))
|
||||
|
||||
|
||||
**参数:**
|
||||
|
|
|
@ -8,8 +8,9 @@ mindspore.nn.PolynomialDecayLR
|
|||
对于当前step,计算decayed_learning_rate[current_step]的公式为:
|
||||
|
||||
.. math::
|
||||
decayed\_learning\_rate[current\_step] = (learning\_rate - end\_learning\_rate) *
|
||||
(1 - tmp\_step / tmp\_decay\_steps)^{power} + end\_learning\_rate
|
||||
decayed\_learning\_rate[current\_step] = &(learning\_rate - end\_learning\_rate) *\\
|
||||
&(1 - tmp\_step / tmp\_decay\_steps)^{power}\\
|
||||
&+ end\_learning\_rate
|
||||
|
||||
其中,
|
||||
|
||||
|
|
Loading…
Reference in New Issue