From 0789e2458576bccc167b894773cf65a471c0fb79 Mon Sep 17 00:00:00 2001 From: lvmingfu Date: Thu, 21 Jul 2022 17:36:37 +0800 Subject: [PATCH] fix error links for r1.6 --- README.md | 2 +- README_CN.md | 2 +- RELEASE.md | 16 ++++++++-------- .../dataset/mindspore.dataset.CLUEDataset.rst | 2 +- .../dataset/mindspore.dataset.CSVDataset.rst | 2 +- .../dataset/mindspore.dataset.CelebADataset.rst | 2 +- .../mindspore.dataset.Cifar100Dataset.rst | 2 +- .../dataset/mindspore.dataset.Cifar10Dataset.rst | 2 +- .../dataset/mindspore.dataset.CocoDataset.rst | 2 +- .../dataset/mindspore.dataset.DatasetCache.rst | 4 ++-- .../mindspore.dataset.ImageFolderDataset.rst | 2 +- .../mindspore.dataset.ManifestDataset.rst | 2 +- .../dataset/mindspore.dataset.MindDataset.rst | 2 +- .../dataset/mindspore.dataset.MnistDataset.rst | 2 +- .../mindspore.dataset.TFRecordDataset.rst | 2 +- .../mindspore.dataset.TextFileDataset.rst | 2 +- .../dataset/mindspore.dataset.VOCDataset.rst | 2 +- .../mindspore.dataset.WaitedDSCallback.rst | 4 ++-- docs/api/api_python/mindspore.context.rst | 6 +++--- docs/api/api_python/mindspore.dataset.rst | 2 +- .../mindspore.train.SummaryCollector.rst | 4 ++-- .../mindspore.train.summary.SummaryRecord.rst | 4 ++-- .../mindspore.build_searched_strategy.rst | 2 +- .../mindspore.load_distributed_checkpoint.rst | 2 +- .../mindspore.merge_sliced_parameter.rst | 2 +- docs/api/api_python/nn/mindspore.nn.Flatten.rst | 2 +- docs/api/api_python/nn/mindspore.nn.ReLU.rst | 2 +- docs/api/api_python/nn/mindspore.nn.Tril.rst | 2 +- .../nn/mindspore.nn.optim_note_loss_scale.rst | 2 +- docs/api/api_python/ops/mindspore.ops.Add.rst | 4 ++-- docs/api/api_python/ops/mindspore.ops.AddN.rst | 2 +- docs/api/api_python/ops/mindspore.ops.Div.rst | 4 ++-- docs/api/api_python/ops/mindspore.ops.Eye.rst | 2 +- docs/api/api_python/ops/mindspore.ops.Fill.rst | 2 +- .../api/api_python/ops/mindspore.ops.Greater.rst | 2 +- .../api_python/ops/mindspore.ops.LessEqual.rst | 4 ++-- docs/api/api_python/ops/mindspore.ops.Mul.rst | 4 ++-- docs/api/api_python/ops/mindspore.ops.Pow.rst | 4 ++-- docs/api/api_python/ops/mindspore.ops.Size.rst | 2 +- docs/api/api_python/ops/mindspore.ops.Sub.rst | 4 ++-- .../backend/kernel_compiler/tbe/tbe_utils.cc | 2 +- .../ccsrc/distributed/cluster/cluster_context.h | 2 +- .../frontend/operator/composite/do_signature.cc | 2 +- mindspore/lite/README.md | 6 +++--- mindspore/lite/README_CN.md | 6 +++--- mindspore/lite/examples/runtime_cpp/README.md | 2 +- mindspore/lite/examples/train_lenet/README.md | 4 ++-- mindspore/lite/examples/train_lenet/README_CN.md | 4 ++-- .../lite/examples/transfer_learning/README.md | 4 ++-- .../lite/examples/transfer_learning/README_CN.md | 4 ++-- mindspore/lite/examples/unified_api/README.md | 4 ++-- mindspore/lite/examples/unified_api/README_CN.md | 4 ++-- .../dataset/engine/datasets_user_defined.py | 2 +- .../python/mindspore/dataset/engine/graphdata.py | 2 +- 54 files changed, 83 insertions(+), 83 deletions(-) diff --git a/README.md b/README.md index b7c52b89b08..618c65df9a0 100644 --- a/README.md +++ b/README.md @@ -44,7 +44,7 @@ enrichment of the AI software/hardware application ecosystem. MindSpore Architecture -For more details please check out our [Architecture Guide](https://www.mindspore.cn/docs/programming_guide/en/master/architecture.html). +For more details please check out our [Architecture Guide](https://www.mindspore.cn/docs/programming_guide/en/r1.6/architecture.html). ### Automatic Differentiation diff --git a/README_CN.md b/README_CN.md index 2480f61596f..66affedfd63 100644 --- a/README_CN.md +++ b/README_CN.md @@ -41,7 +41,7 @@ MindSpore提供了友好的设计和高效的执行,旨在提升数据科学 MindSpore Architecture -欲了解更多详情,请查看我们的[总体架构](https://www.mindspore.cn/docs/programming_guide/zh-CN/master/architecture.html)。 +欲了解更多详情,请查看我们的[总体架构](https://www.mindspore.cn/docs/programming_guide/zh-CN/r1.6/architecture.html)。 ### 自动微分 diff --git a/RELEASE.md b/RELEASE.md index a0d18da6bd5..a4ced317149 100644 --- a/RELEASE.md +++ b/RELEASE.md @@ -84,8 +84,8 @@ Contributions of any kind are welcome! - [STABLE] Support overwrite feature in MindRecord. - [STABLE] Log improvement and more friendly to users. -- [BETA] Support new feature [Dataset Offload](https://www.mindspore.cn/docs/programming_guide/zh-CN/master/enable_dataset_offload.html) to speed up data processing by heterogeneous computing. -- [BETA] Support new feature [Dataset Autotune](https://www.mindspore.cn/docs/programming_guide/zh-CN/master/enable_dataset_autotune.html) to adjust parallelism of dataset pipeline automatically. +- [BETA] Support new feature [Dataset Offload](https://www.mindspore.cn/docs/programming_guide/zh-CN/r1.6/enable_dataset_offload.html) to speed up data processing by heterogeneous computing. +- [BETA] Support new feature [Dataset Autotune](https://www.mindspore.cn/docs/programming_guide/zh-CN/r1.6/enable_dataset_autotune.html) to adjust parallelism of dataset pipeline automatically. #### GraphKernel Fusion @@ -111,7 +111,7 @@ Contributions of any kind are welcome! ###### `mindspore.dataset.MindDataset` interface changes input parameter dataset_file([!27542](https://gitee.com/mindspore/mindspore/pulls/27542)) -`MindDataset` contains the input parameter `dataset_file`, which is in the singular format. It can receive a single file path or a list that stores multiple file paths. Thus It is preferred to change the input parameter `dataset_file` into plural format. In addition, the input parameters of most dataset API, such as `TFRecordDataset`, are in plural formart (`dataset_files`). To ensure consistency, the input parameter `dataset_file` of MindDataset is changed to plural formart as `dataset_files`, we can see the updated version in api of [mindspore.dataset.MindDataset](https://www.mindspore.cn/docs/api/zh-CN/master/api_python/dataset/mindspore.dataset.MindDataset.html#mindspore.dataset.MindDataset). +`MindDataset` contains the input parameter `dataset_file`, which is in the singular format. It can receive a single file path or a list that stores multiple file paths. Thus It is preferred to change the input parameter `dataset_file` into plural format. In addition, the input parameters of most dataset API, such as `TFRecordDataset`, are in plural formart (`dataset_files`). To ensure consistency, the input parameter `dataset_file` of MindDataset is changed to plural formart as `dataset_files`, we can see the updated version in api of [mindspore.dataset.MindDataset](https://www.mindspore.cn/docs/api/zh-CN/r1.6/api_python/dataset/mindspore.dataset.MindDataset.html#mindspore.dataset.MindDataset). ###### Deprecated usage: `import mindspore.dataset.engine.datasets as ds`. Use `import mindspore.dataset as ds` instead as recommended @@ -135,11 +135,11 @@ We're reconstructed `mindspore/dataset/engine/datasets.py` to `datasets.py`, `da ###### `mindspore.train.callback.SummaryCollector` interface's parameter `collect_specified_data` add new operations `collect_landscape` ([!26229](https://gitee.com/mindspore/mindspore/pulls/26229)) -`collect_landscape` can collect the parameters needed to create the loss landscape. we can see the updated version in api of [mindspore.train.callback.SummaryCollector](https://www.mindspore.cn/docs/api/zh-CN/master/api_python/mindspore.train.html#mindspore.train.callback.SummaryCollector). +`collect_landscape` can collect the parameters needed to create the loss landscape. we can see the updated version in api of [mindspore.train.callback.SummaryCollector](https://www.mindspore.cn/docs/api/zh-CN/r1.6/api_python/mindspore.train.html#mindspore.train.callback.SummaryCollector). ###### `mindspore.train.callback` add new interface `SummaryLandscape` ([!26229](https://gitee.com/mindspore/mindspore/pulls/26229)) -`SummaryLandscape` can help you to collect loss landscape information. It can create landscape in PCA direction or random direction by calculating loss. We can see the updated version in api of [mindspore.train.callback.SummaryLandscape](https://www.mindspore.cn/docs/api/zh-CN/master/api_python/mindspore.train.html#mindspore.train.callback.SummaryLandscape). +`SummaryLandscape` can help you to collect loss landscape information. It can create landscape in PCA direction or random direction by calculating loss. We can see the updated version in api of [mindspore.train.callback.SummaryLandscape](https://www.mindspore.cn/docs/api/zh-CN/r1.6/api_python/mindspore.train.html#mindspore.train.callback.SummaryLandscape). ### Bug fixes @@ -611,7 +611,7 @@ thor(net, learning_rate, damping, momentum, weight_decay=0.0, loss_scale=1.0, ba ##### Dump Config -Previously, we could only dump tensor data for one or all steps. To make the dump feature easier to use, we changed the dump configuration format and dump structure. View the [New Dump Tutorial](https://www.mindspore.cn/docs/programming_guide/en/master/dump_in_graph_mode.html#dump). +Previously, we could only dump tensor data for one or all steps. To make the dump feature easier to use, we changed the dump configuration format and dump structure. View the [New Dump Tutorial](https://www.mindspore.cn/docs/programming_guide/en/r1.6/dump_in_graph_mode.html#dump). | 1.2.1 | 1.3.0 | | ------------------------------------------------------ | ------------------------------------------------------------------------------------------- | @@ -995,7 +995,7 @@ However, currently MindSpore Parser cannot parse numpy.ndarray in JIT-graph. To ###### mindspore.numpy interfaces remove support for keyword arguments `out` and `where`([!12726](https://gitee.com/mindspore/mindspore/pulls/12726)) -Previously, we have incomplete support for keyword arguments `out` and `where` in mindspore.numpy interfaces, however, the `out` argument is only functional when `where` argument is also provided, and `out` cannot be used to pass reference to numpy functions. Therefore, we have removed these two arguments to avoid any confusion users may have. Their original functionality can be found in [np.where](https://www.mindspore.cn/docs/api/en/master/api_python/numpy/mindspore.numpy.where.html#mindspore.numpy.where) +Previously, we have incomplete support for keyword arguments `out` and `where` in mindspore.numpy interfaces, however, the `out` argument is only functional when `where` argument is also provided, and `out` cannot be used to pass reference to numpy functions. Therefore, we have removed these two arguments to avoid any confusion users may have. Their original functionality can be found in [np.where](https://www.mindspore.cn/docs/api/en/r1.6/api_python/numpy/mindspore.numpy.where.html#mindspore.numpy.where) @@ -1294,7 +1294,7 @@ MSTensor::DestroyTensorPtr(tensor); ###### `nn.MatMul` is now deprecated in favor of `ops.matmul` ([!12817](https://gitee.com/mindspore/mindspore/pulls/12817)) -[ops.matmul](https://www.mindspore.cn/docs/api/en/master/api_python/ops/mindspore.ops.matmul.html#mindspore.ops.matmul) follows the API of [numpy.matmul](https://numpy.org/doc/stable/reference/generated/numpy.matmul.html) as closely as possible. As a function interface, [ops.matmul](https://www.mindspore.cn/docs/api/en/master/api_python/ops/mindspore.ops.matmul.html#mindspore.ops.matmul) is applied without instantiation, as opposed to `nn.MatMul`, which should only be used as a class instance. +[ops.matmul](https://www.mindspore.cn/docs/api/en/r1.6/api_python/ops/mindspore.ops.matmul.html#mindspore.ops.matmul) follows the API of [numpy.matmul](https://numpy.org/doc/stable/reference/generated/numpy.matmul.html) as closely as possible. As a function interface, [ops.matmul](https://www.mindspore.cn/docs/api/en/r1.6/api_python/ops/mindspore.ops.matmul.html#mindspore.ops.matmul) is applied without instantiation, as opposed to `nn.MatMul`, which should only be used as a class instance.
diff --git a/docs/api/api_python/dataset/mindspore.dataset.CLUEDataset.rst b/docs/api/api_python/dataset/mindspore.dataset.CLUEDataset.rst index 3ccebf5ce12..44fe066c1d9 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.CLUEDataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.CLUEDataset.rst @@ -23,7 +23,7 @@ mindspore.dataset.CLUEDataset - **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数,默认值:None。指定此参数后, `num_samples` 表示每个分片的最大样本数。 - **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号,默认值:None。只有当指定了 `num_shards` 时才能指定此参数。 - - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读 `单节点数据缓存 `_ 。默认值:None,不使用缓存。 + - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读 `单节点数据缓存 `_ 。默认值:None,不使用缓存。 根据给定的 `task` 参数配置,数据集会生成不同的输出列: diff --git a/docs/api/api_python/dataset/mindspore.dataset.CSVDataset.rst b/docs/api/api_python/dataset/mindspore.dataset.CSVDataset.rst index 695c7cdb2d5..a55cd092145 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.CSVDataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.CSVDataset.rst @@ -22,7 +22,7 @@ - **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数,默认值:None。指定此参数后, `num_samples` 表示每个分片的最大样本数。 - **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号,默认值:None。只有当指定了 `num_shards` 时才能指定此参数。 - - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读 `单节点数据缓存 `_ 。默认值:None,不使用缓存。 + - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读 `单节点数据缓存 `_ 。默认值:None,不使用缓存。 **异常:** diff --git a/docs/api/api_python/dataset/mindspore.dataset.CelebADataset.rst b/docs/api/api_python/dataset/mindspore.dataset.CelebADataset.rst index 79e799b20f7..b4b62f14d59 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.CelebADataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.CelebADataset.rst @@ -19,7 +19,7 @@ mindspore.dataset.CelebADataset - **num_samples** (int, 可选) - 指定从数据集中读取的样本数,可以小于数据集总数。默认值:None,读取全部样本图片。 - **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数,默认值:None。指定此参数后, `num_samples` 表示每个分片的最大样本数。 - **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号,默认值:None。只有当指定了 `num_shards` 时才能指定此参数。 - - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 + - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 **异常:** diff --git a/docs/api/api_python/dataset/mindspore.dataset.Cifar100Dataset.rst b/docs/api/api_python/dataset/mindspore.dataset.Cifar100Dataset.rst index 8c05390355f..386d003fcc7 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.Cifar100Dataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.Cifar100Dataset.rst @@ -18,7 +18,7 @@ mindspore.dataset.Cifar100Dataset - **sampler** (Sampler, 可选) - 指定从数据集中选取样本的采样器,默认值:None,下表中会展示不同配置的预期行为。 - **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数,默认值:None。指定此参数后, `num_samples` 表示每个分片的最大样本数。 - **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号,默认值:None。只有当指定了 `num_shards` 时才能指定此参数。 - - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 + - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 **异常:** diff --git a/docs/api/api_python/dataset/mindspore.dataset.Cifar10Dataset.rst b/docs/api/api_python/dataset/mindspore.dataset.Cifar10Dataset.rst index f6f9c2c6e8a..a77a0b4df40 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.Cifar10Dataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.Cifar10Dataset.rst @@ -18,7 +18,7 @@ mindspore.dataset.Cifar10Dataset - **sampler** (Sampler, 可选) - 指定从数据集中选取样本的采样器,默认值:None,下表中会展示不同配置的预期行为。 - **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数,默认值:None。指定此参数后, `num_samples` 表示每个分片的最大样本数。 - **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号,默认值:None。只有当指定了 `num_shards` 时才能指定此参数。 - - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 + - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 **异常:** diff --git a/docs/api/api_python/dataset/mindspore.dataset.CocoDataset.rst b/docs/api/api_python/dataset/mindspore.dataset.CocoDataset.rst index 8ad28571f85..ca41b3791c0 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.CocoDataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.CocoDataset.rst @@ -17,7 +17,7 @@ - **sampler** (Sampler, 可选) - 指定从数据集中选取样本的采样器,默认值:None,下表中会展示不同配置的预期行为。 - **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数,默认值:None。指定此参数后, `num_samples` 表示每个分片的最大样本数。 - **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号,默认值:None。只有当指定了 `num_shards` 时才能指定此参数。 - - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 + - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 - **extra_metadata** (bool, 可选) - 用于指定是否额外输出一个数据列用于表示图片元信息。如果为True,则将额外输出一个名为 `[_meta-filename, dtype=string]` 的数据列,默认值:False。 根据不同 `task` 参数设置,生成数据集具有不同的输出列: diff --git a/docs/api/api_python/dataset/mindspore.dataset.DatasetCache.rst b/docs/api/api_python/dataset/mindspore.dataset.DatasetCache.rst index b3222a27f9b..720c0fea0e0 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.DatasetCache.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.DatasetCache.rst @@ -5,8 +5,8 @@ mindspore.dataset.DatasetCache 创建数据缓存客户端实例。 - 关于单节点数据缓存的使用,请参阅 `单节点数据缓存教程 `_ 、 - `单节点数据缓存编程指南 `_。 + 关于单节点数据缓存的使用,请参阅 `单节点数据缓存教程 `_ 、 + `单节点数据缓存编程指南 `_。 **参数:** diff --git a/docs/api/api_python/dataset/mindspore.dataset.ImageFolderDataset.rst b/docs/api/api_python/dataset/mindspore.dataset.ImageFolderDataset.rst index c7ce7f01087..9fb92099894 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.ImageFolderDataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.ImageFolderDataset.rst @@ -19,7 +19,7 @@ mindspore.dataset.ImageFolderDataset - **decode** (bool, 可选) - 是否对读取的图片进行解码操作,默认值:False,不解码。 - **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数,默认值:None。指定此参数后, `num_samples` 表示每个分片的最大样本数。 - **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号,默认值:None。只有当指定了 `num_shards` 时才能指定此参数。 - - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 + - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 **异常:** diff --git a/docs/api/api_python/dataset/mindspore.dataset.ManifestDataset.rst b/docs/api/api_python/dataset/mindspore.dataset.ManifestDataset.rst index beac0632450..814bdc1cce5 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.ManifestDataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.ManifestDataset.rst @@ -19,7 +19,7 @@ - **decode** (bool, 可选) - 是否对读取的图片进行解码操作,默认值:False,不解码。 - **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数,默认值:None。指定此参数后, `num_samples` 表示每个分片的最大样本数。 - **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号,默认值:None。只有当指定了 `num_shards` 时才能指定此参数。 - - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 + - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 **异常:** diff --git a/docs/api/api_python/dataset/mindspore.dataset.MindDataset.rst b/docs/api/api_python/dataset/mindspore.dataset.MindDataset.rst index 79d65615d14..6c9921c9b34 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.MindDataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.MindDataset.rst @@ -24,7 +24,7 @@ - **padded_sample** (dict, 可选): 指定额外添加到数据集的样本,可用于在分布式训练时补齐分片数据,注意字典的键名需要与 `column_list` 指定的列名相同。默认值:None,不添加样本。需要与 `num_padded` 参数同时使用。 - **num_padded** (int, 可选) - 指定额外添加的数据集样本的数量。在分布式训练时可用于为数据集补齐样本,使得总样本数量可被 `num_shards` 整除。默认值:None,不添加样本。需要与 `padded_sample` 参数同时使用。 - **num_samples** (int, 可选) - 指定从数据集中读取的样本数。默认值:None,读取所有样本。 - - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 + - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 **异常:** diff --git a/docs/api/api_python/dataset/mindspore.dataset.MnistDataset.rst b/docs/api/api_python/dataset/mindspore.dataset.MnistDataset.rst index 7e9f85a7a34..8d8a7f11a81 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.MnistDataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.MnistDataset.rst @@ -18,7 +18,7 @@ mindspore.dataset.MnistDataset - **sampler** (Sampler, 可选) - 指定从数据集中选取样本的采样器,默认值:None,下表中会展示不同配置的预期行为。 - **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数,默认值:None。指定此参数后, `num_samples` 表示每个分片的最大样本数。 - **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号,默认值:None。只有当指定了 `num_shards` 时才能指定此参数。 - - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 + - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 **异常:** diff --git a/docs/api/api_python/dataset/mindspore.dataset.TFRecordDataset.rst b/docs/api/api_python/dataset/mindspore.dataset.TFRecordDataset.rst index 0470a043da0..63eeacc1d3c 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.TFRecordDataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.TFRecordDataset.rst @@ -27,7 +27,7 @@ mindspore.dataset.TFRecordDataset - **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数,默认值:None。指定此参数后, `num_samples` 表示每个分片的最大样本数。 - **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号,默认值:None。只有当指定了 `num_shards` 时才能指定此参数。 - **shard_equal_rows** (bool, 可选) - 分布式训练时,为所有分片获取等量的数据行数。默认值:False。如果 `shard_equal_rows` 为False,则可能会使得每个分片的数据条目不相等,从而导致分布式训练失败。因此当每个TFRecord文件的数据数量不相等时,建议将此参数设置为True。注意,只有当指定了 `num_shards` 时才能指定此参数。 - - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读 `单节点数据缓存 `_ 。默认值:None,不使用缓存。 + - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读 `单节点数据缓存 `_ 。默认值:None,不使用缓存。 **异常:** diff --git a/docs/api/api_python/dataset/mindspore.dataset.TextFileDataset.rst b/docs/api/api_python/dataset/mindspore.dataset.TextFileDataset.rst index c07b640c1c6..be723e1fd41 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.TextFileDataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.TextFileDataset.rst @@ -19,7 +19,7 @@ - **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数,默认值:None。指定此参数后, `num_samples` 表示每个分片的最大样本数。 - **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号,默认值:None。只有当指定了 `num_shards` 时才能指定此参数。 - - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读 `单节点数据缓存 `_ 。默认值:None,不使用缓存。 + - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读 `单节点数据缓存 `_ 。默认值:None,不使用缓存。 **异常:** diff --git a/docs/api/api_python/dataset/mindspore.dataset.VOCDataset.rst b/docs/api/api_python/dataset/mindspore.dataset.VOCDataset.rst index 1833cd7e0d7..766fcb6d3fc 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.VOCDataset.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.VOCDataset.rst @@ -22,7 +22,7 @@ mindspore.dataset.VOCDataset - **sampler** (Sampler, 可选) - 指定从数据集中选取样本的采样器,默认值:None,下表中会展示不同配置的预期行为。 - **num_shards** (int, 可选) - 指定分布式训练时将数据集进行划分的分片数,默认值:None。指定此参数后, `num_samples` 表示每个分片的最大样本数。 - **shard_id** (int, 可选) - 指定分布式训练时使用的分片ID号,默认值:None。只有当指定了 `num_shards` 时才能指定此参数。 - - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 + - **cache** (DatasetCache, 可选) - 单节点数据缓存服务,用于加快数据集处理,详情请阅读`单节点数据缓存 `_ 。默认值:None,不使用缓存。 - **extra_metadata** (bool, 可选) - 用于指定是否额外输出一个数据列用于表示图片元信息。如果为True,则将额外输出一个名为 `[_meta-filename, dtype=string]` 的数据列,默认值:False。 根据给定的`task`配置,生成数据集具有不同的输出列: diff --git a/docs/api/api_python/dataset/mindspore.dataset.WaitedDSCallback.rst b/docs/api/api_python/dataset/mindspore.dataset.WaitedDSCallback.rst index 9307f7ab207..68fa699af96 100644 --- a/docs/api/api_python/dataset/mindspore.dataset.WaitedDSCallback.rst +++ b/docs/api/api_python/dataset/mindspore.dataset.WaitedDSCallback.rst @@ -3,12 +3,12 @@ mindspore.dataset.WaitedDSCallback .. py:class:: mindspore.dataset.WaitedDSCallback(step_size=1) - 数据集自定义回调类的抽象基类,用于与训练回调类 `mindspore.train.callback `_ 的同步。 + 数据集自定义回调类的抽象基类,用于与训练回调类 `mindspore.train.callback `_ 的同步。 可用于在每个step或epoch开始前执行自定义的回调方法,注意,第二个step或epoch开始时才会触发该调用。 例如在自动数据增强中根据上一个epoch的loss值来更新增强算子参数配置。 - 用户可通过 `train_run_context` 获取网络训练相关信息,如 `network` 、 `train_network` 、 `epoch_num` 、 `batch_num` 、 `loss_fn` 、 `optimizer` 、 `parallel_mode` 、 `device_number` 、 `list_callback` 、 `cur_epoch_num` 、 `cur_step_num` 、 `dataset_sink_mode` 、 `net_outputs` 等,详见 `mindspore.train.callback `_ 。 + 用户可通过 `train_run_context` 获取网络训练相关信息,如 `network` 、 `train_network` 、 `epoch_num` 、 `batch_num` 、 `loss_fn` 、 `optimizer` 、 `parallel_mode` 、 `device_number` 、 `list_callback` 、 `cur_epoch_num` 、 `cur_step_num` 、 `dataset_sink_mode` 、 `net_outputs` 等,详见 `mindspore.train.callback `_ 。 用户可通过 `ds_run_context` 获取数据处理管道相关信息,包括 `cur_epoch_num` (当前epoch数)、 `cur_step_num_in_epoch` (当前epoch的step数)、 `cur_step_num` (当前step数)。 diff --git a/docs/api/api_python/mindspore.context.rst b/docs/api/api_python/mindspore.context.rst index 00cf58e0b5c..8a1045166a4 100644 --- a/docs/api/api_python/mindspore.context.rst +++ b/docs/api/api_python/mindspore.context.rst @@ -106,7 +106,7 @@ MindSpore上下文,用于配置当前执行环境,包括执行模式、执 - **pynative_synchronize** (bool) - 表示是否在PyNative模式下启动设备同步执行。默认值:False。设置为False时,将在设备上异步执行算子。当算子执行出错时,将无法定位特定错误脚本代码的位置。当设置为True时,将在设备上同步执行算子。这将降低程序的执行性能。此时,当算子执行出错时,可以根据错误的调用栈来定位错误脚本代码的位置。 - **mode** (int) - 表示在GRAPH_MODE(0)或PYNATIVE_MODE(1)模式中的运行。默认值:GRAPH_MODE(0)。GRAPH_MODE或PYNATIVE_MODE可以通过 `mode` 属性设置,两种模式都支持所有后端。默认模式为GRAPH_MODE。 - - **enable_graph_kernel** (bool) - 表示是否启用图算融合去优化网络执行性能。默认值:False。如果 `enable_graph_kernel` 设置为True,则可以启用加速。有关图算融合的详细信息,请查看 `使能图算融合 `_ 。 + - **enable_graph_kernel** (bool) - 表示是否启用图算融合去优化网络执行性能。默认值:False。如果 `enable_graph_kernel` 设置为True,则可以启用加速。有关图算融合的详细信息,请查看 `使能图算融合 `_ 。 - **graph_kernel_flags** (str) - 图算融合的优化选项,当与enable_graph_kernel冲突时,它的优先级更高。其仅适用于有经验的用户。例如,context.set_context(graph_kernel_flags="--opt_level=2 --dump_as_text")。一些常用选项: - **opt_level**:设置优化级别。默认值:2。当opt_level的值大于0时,启动图算融合。可选值包括: @@ -128,11 +128,11 @@ MindSpore上下文,用于配置当前执行环境,包括执行模式、执 - RL,GA:当RL和GA优化同时打开时,工具会根据网络模型中的不同算子类型自动选择RL或GA。RL和GA的顺序没有区别。(自动选择)。 - 有关启用算子调优工具设置的更多信息,请查看 `使能算子调优工具 `_。 + 有关启用算子调优工具设置的更多信息,请查看 `使能算子调优工具 `_。 - **check_bprop** (bool) - 表示是否检查反向传播节点,以确保反向传播节点输出的形状(shape)和数据类型与输入参数相同。默认值:False。 - **max_call_depth** (int) - 指定函数调用的最大深度。其值必须为正整数。默认值:1000。当嵌套Cell太深或子图数量太多时,需要设置 `max_call_depth` 参数。如果 `max_call_depth` 的值比以前的大,则应把系统最大堆栈深度设得更大,否则可能会因为系统堆栈溢出而引发 `core dumped` 异常。 - - **enable_sparse** (bool) - 表示是否启用稀疏特征。默认值:False。有关稀疏特征和稀疏张量的详细信息,请查看 `稀疏张量 `_。 + - **enable_sparse** (bool) - 表示是否启用稀疏特征。默认值:False。有关稀疏特征和稀疏张量的详细信息,请查看 `稀疏张量 `_。 - **grad_for_scalar** (bool): 表示是否获取标量梯度。默认值:False。当 `grad_for_scalar` 设置为True时,则衍生函数的标量输入。默认值为False。由于后端目前不支持伸缩操作,所以该接口只支持在前端可推演的简单操作。 - **enable_compile_cache** (bool) - 表示是否加载或者保存前端编译的图。当 `enable_compile_cache` 被设置为True时,在第一次执行的过程中,一个硬件无关的编译缓存会被生成并且导出为一个MINDIR文件。当该网络被再次执行时,如果 `enable_compile_cache` 仍然为True并且网络脚本没有被更改,那么这个编译缓存会被加载。注意目前只支持有限的Python脚本更改的自动检测,这意味着可能有正确性风险。默认值:False。这是一个实验原型,可能会被更改或者删除。 - **compile_cache_path** (str) - 保存前端图编译缓存的路径。默认值:"."。如果目录不存在,系统会自动创建这个目录。缓存会被保存到如下目录:`compile_cache_path/rank_${rank_id}/` 。 `rank_id` 是集群上当前设备的ID。 diff --git a/docs/api/api_python/mindspore.dataset.rst b/docs/api/api_python/mindspore.dataset.rst index 3924b6db601..f823b218874 100644 --- a/docs/api/api_python/mindspore.dataset.rst +++ b/docs/api/api_python/mindspore.dataset.rst @@ -8,7 +8,7 @@ mindspore.dataset 大多数数据集可以通过指定参数 `cache` 启用缓存服务,以提升整体数据处理效率。 请注意Windows平台上还不支持缓存服务,因此在Windows上加载和处理数据时,请勿使用。更多介绍和限制, -请参考 `Single-Node Tensor Cache `_。 +请参考 `Single-Node Tensor Cache `_。 在API示例中,常用的模块导入方法如下: diff --git a/docs/api/api_python/mindspore.train/mindspore.train.SummaryCollector.rst b/docs/api/api_python/mindspore.train/mindspore.train.SummaryCollector.rst index ebf72329a1b..5711478b335 100644 --- a/docs/api/api_python/mindspore.train/mindspore.train.SummaryCollector.rst +++ b/docs/api/api_python/mindspore.train/mindspore.train.SummaryCollector.rst @@ -3,7 +3,7 @@ SummaryCollector可以收集一些常用信息。 它可以帮助收集loss、学习率、计算图等。 - SummaryCollector还可以允许通过 `summary算子 `_ 将数据收集到summary文件中。 + SummaryCollector还可以允许通过 `summary算子 `_ 将数据收集到summary文件中。 .. note:: - 不允许在回调列表中存在多个SummaryCollector实例。 @@ -20,7 +20,7 @@ - **collect_metric** (bool) - 表示是否收集训练metrics,目前只收集loss。把第一个输出视为loss,并且算出其平均数。默认值:True。 - **collect_graph** (bool) - 表示是否收集计算图。目前只收集训练计算图。默认值:True。 - - **collect_train_lineage** (bool) - 表示是否收集训练阶段的lineage数据,该字段将显示在MindInsight的 `lineage页面 `_ 上。默认值:True。 + - **collect_train_lineage** (bool) - 表示是否收集训练阶段的lineage数据,该字段将显示在MindInsight的 `lineage页面 `_ 上。默认值:True。 - **collect_eval_lineage** (bool) - 表示是否收集评估阶段的lineage数据,该字段将显示在MindInsight的lineage页面上。默认值:True。 - **collect_input_data** (bool) - 表示是否为每次训练收集数据集。目前仅支持图像数据。如果数据集中有多列数据,则第一列应为图像数据。默认值:True。 - **collect_dataset_graph** (bool) - 表示是否收集训练阶段的数据集图。默认值:True。 diff --git a/docs/api/api_python/mindspore.train/mindspore.train.summary.SummaryRecord.rst b/docs/api/api_python/mindspore.train/mindspore.train.summary.SummaryRecord.rst index cbf0a6a5d71..ff52b3faa66 100644 --- a/docs/api/api_python/mindspore.train/mindspore.train.summary.SummaryRecord.rst +++ b/docs/api/api_python/mindspore.train/mindspore.train.summary.SummaryRecord.rst @@ -4,7 +4,7 @@ 该方法将在一个指定的目录中创建summary文件和lineage文件,并将数据写入文件。 - 它通过执行 `record` 方法将数据写入文件。除了通过 `summary算子 `_ 记录网络的数据外,SummaryRecord还支持通过 `自定义回调函数和自定义训练循环 `_ 记录数据。 + 它通过执行 `record` 方法将数据写入文件。除了通过 `summary算子 `_ 记录网络的数据外,SummaryRecord还支持通过 `自定义回调函数和自定义训练循环 `_ 记录数据。 .. note:: - 确保在最后关闭SummaryRecord,否则进程不会退出。请参阅下面的示例部分,了解如何用两种方式正确关闭SummaryRecord。 @@ -144,7 +144,7 @@ **异常:** - - **TypeError:** `step` 不为整型,或 `train_network` 的类型不为`mindspore.nn.Cell `_ 。 + - **TypeError:** `step` 不为整型,或 `train_network` 的类型不为`mindspore.nn.Cell `_ 。 **样例:** diff --git a/docs/api/api_python/mindspore/mindspore.build_searched_strategy.rst b/docs/api/api_python/mindspore/mindspore.build_searched_strategy.rst index 55494ac8079..33dc0b01441 100644 --- a/docs/api/api_python/mindspore/mindspore.build_searched_strategy.rst +++ b/docs/api/api_python/mindspore/mindspore.build_searched_strategy.rst @@ -3,7 +3,7 @@ mindspore.build_searched_strategy .. py:class:: mindspore.build_searched_strategy(strategy_filename) - 构建网络中每个参数的策略,用于分布式推理。关于它的使用细节,请参考: `保存和加载模型(HyBrid Parallel模式) `_。 + 构建网络中每个参数的策略,用于分布式推理。关于它的使用细节,请参考: `保存和加载模型(HyBrid Parallel模式) `_。 **参数:** diff --git a/docs/api/api_python/mindspore/mindspore.load_distributed_checkpoint.rst b/docs/api/api_python/mindspore/mindspore.load_distributed_checkpoint.rst index 555a881775e..2b5f82e4bcb 100644 --- a/docs/api/api_python/mindspore/mindspore.load_distributed_checkpoint.rst +++ b/docs/api/api_python/mindspore/mindspore.load_distributed_checkpoint.rst @@ -3,7 +3,7 @@ mindspore.load_distributed_checkpoint .. py:method:: mindspore.load_distributed_checkpoint(network, checkpoint_filenames, predict_strategy=None, train_strategy_filename=None, strict_load=False, dec_key=None, dec_mode='AES-GCM') - 给分布式预测加载checkpoint文件到网络,用于分布式推理。关于分布式推理的细节,请参考: https://www.mindspore.cn/docs/programming_guide/zh-CN/master/distributed_inference.html 。 + 给分布式预测加载checkpoint文件到网络,用于分布式推理。关于分布式推理的细节,请参考: https://www.mindspore.cn/docs/programming_guide/zh-CN/r1.6/distributed_inference.html 。 **参数:** diff --git a/docs/api/api_python/mindspore/mindspore.merge_sliced_parameter.rst b/docs/api/api_python/mindspore/mindspore.merge_sliced_parameter.rst index f52ce883a79..a10669b3b67 100644 --- a/docs/api/api_python/mindspore/mindspore.merge_sliced_parameter.rst +++ b/docs/api/api_python/mindspore/mindspore.merge_sliced_parameter.rst @@ -3,7 +3,7 @@ mindspore.merge_sliced_parameter .. py:method:: mindspore.merge_sliced_parameter(sliced_parameters, strategy=None) - 将参数切片合并为一个完整的参数,用于分布式推理。关于它的细节,请参考:`保存和加载模型(HyBrid Parallel模式) `_。 + 将参数切片合并为一个完整的参数,用于分布式推理。关于它的细节,请参考:`保存和加载模型(HyBrid Parallel模式) `_。 **参数:** diff --git a/docs/api/api_python/nn/mindspore.nn.Flatten.rst b/docs/api/api_python/nn/mindspore.nn.Flatten.rst index 4f7454391b0..8476f4fcc00 100644 --- a/docs/api/api_python/nn/mindspore.nn.Flatten.rst +++ b/docs/api/api_python/nn/mindspore.nn.Flatten.rst @@ -7,7 +7,7 @@ mindspore.nn.Flatten **输入:** - - **x** (Tensor) - 要展平的输入Tensor。shape为 :math:`(N, *)`,其中 :math:`*` 表示任意的附加维度。数据类型为 `number `_。 + - **x** (Tensor) - 要展平的输入Tensor。shape为 :math:`(N, *)`,其中 :math:`*` 表示任意的附加维度。数据类型为 `number `_。 **输出:** diff --git a/docs/api/api_python/nn/mindspore.nn.ReLU.rst b/docs/api/api_python/nn/mindspore.nn.ReLU.rst index 910da76d43d..78f2458f0fb 100644 --- a/docs/api/api_python/nn/mindspore.nn.ReLU.rst +++ b/docs/api/api_python/nn/mindspore.nn.ReLU.rst @@ -15,7 +15,7 @@ mindspore.nn.ReLU **输入:** - - **x** (Tensor) - 用于计算ReLU的任意维度的Tensor。数据类型为 `number `_。 + - **x** (Tensor) - 用于计算ReLU的任意维度的Tensor。数据类型为 `number `_。 **输出:** diff --git a/docs/api/api_python/nn/mindspore.nn.Tril.rst b/docs/api/api_python/nn/mindspore.nn.Tril.rst index 80ace5c44e7..3bf89260937 100644 --- a/docs/api/api_python/nn/mindspore.nn.Tril.rst +++ b/docs/api/api_python/nn/mindspore.nn.Tril.rst @@ -11,7 +11,7 @@ mindspore.nn.Tril **输入:** - - **x** (Tensor):输入Tensor。数据类型为`number `_。 + - **x** (Tensor):输入Tensor。数据类型为`number `_。 - **k** (int):对角线的索引。默认值:0。假设输入的矩阵的维度分别为d1,d2,则k的范围应在[-min(d1, d2)+1, min(d1, d2)-1],超出该范围时输出值与输入 `x` 一致。 **输出:** diff --git a/docs/api/api_python/nn/mindspore.nn.optim_note_loss_scale.rst b/docs/api/api_python/nn/mindspore.nn.optim_note_loss_scale.rst index 484819604bd..d7576f6b479 100644 --- a/docs/api/api_python/nn/mindspore.nn.optim_note_loss_scale.rst +++ b/docs/api/api_python/nn/mindspore.nn.optim_note_loss_scale.rst @@ -1 +1 @@ -优化器和混合精度之间通常没有联系。但是,当使用 `FixedLossScaleManager` 且 `FixedLossScaleManager` 中的 `drop_overflow_update` 设置为False时,优化器需要设置'loss_scale'。由于此优化器没有 `loss_scale` 的参数,因此需要通过其他方式处理 `loss_scale` ,如何正确处理 `loss_scale` 详见 `LossScale `_。 +优化器和混合精度之间通常没有联系。但是,当使用 `FixedLossScaleManager` 且 `FixedLossScaleManager` 中的 `drop_overflow_update` 设置为False时,优化器需要设置'loss_scale'。由于此优化器没有 `loss_scale` 的参数,因此需要通过其他方式处理 `loss_scale` ,如何正确处理 `loss_scale` 详见 `LossScale `_。 diff --git a/docs/api/api_python/ops/mindspore.ops.Add.rst b/docs/api/api_python/ops/mindspore.ops.Add.rst index 4f56ab5c37f..b46bd051c80 100644 --- a/docs/api/api_python/ops/mindspore.ops.Add.rst +++ b/docs/api/api_python/ops/mindspore.ops.Add.rst @@ -10,14 +10,14 @@ mindspore.ops.Add out_{i} = x_{i} + y_{i} .. note:: - - 输入 `x` 和 `y` 遵循 `隐式类型转换规则 `_ ,使数据类型保持一致。 + - 输入 `x` 和 `y` 遵循 `隐式类型转换规则 `_ ,使数据类型保持一致。 - 输入必须是两个Tensor,或一个Tensor和一个Scalar。 - 当输入是两个Tensor时,它们的数据类型不能同时是bool,并保证其shape可以广播。 - 当输入是一个Tensor和一个Scalar时,Scalar只能是一个常数。 **输入:** - - **x** (Union[Tensor, number.Number, bool]) - 第一个输入,是一个number.Number、bool值或数据类型为 `number `_ 或 `bool_ `_ 的Tensor。 + - **x** (Union[Tensor, number.Number, bool]) - 第一个输入,是一个number.Number、bool值或数据类型为 `number `_ 或 `bool_ `_ 的Tensor。 - **y** (Union[Tensor, number.Number, bool]) - 第二个输入,当第一个输入是Tensor时,第二个输入应该是一个number.Number或bool值,或数据类型为number或bool_的Tensor。当第一个输入是Scalar时,第二个输入必须是数据类型为number或bool_的Tensor。 **输出:** diff --git a/docs/api/api_python/ops/mindspore.ops.AddN.rst b/docs/api/api_python/ops/mindspore.ops.AddN.rst index 2c2f24c0e37..bbc60f03398 100644 --- a/docs/api/api_python/ops/mindspore.ops.AddN.rst +++ b/docs/api/api_python/ops/mindspore.ops.AddN.rst @@ -9,7 +9,7 @@ mindspore.ops.AddN **输入:** - - **x** (Union(tuple[Tensor], list[Tensor])) - Tensor组成的tuble或list,类型为 `bool_ `_ 或 `number `_ 。 + - **x** (Union(tuple[Tensor], list[Tensor])) - Tensor组成的tuble或list,类型为 `bool_ `_ 或 `number `_ 。 **输出:** diff --git a/docs/api/api_python/ops/mindspore.ops.Div.rst b/docs/api/api_python/ops/mindspore.ops.Div.rst index 59ee1385148..c0fcc6e328a 100644 --- a/docs/api/api_python/ops/mindspore.ops.Div.rst +++ b/docs/api/api_python/ops/mindspore.ops.Div.rst @@ -10,14 +10,14 @@ mindspore.ops.Div out_{i} = \frac{x_i}{y_i} .. note:: - - 输入 `x` 和 `y` 遵循 `隐式类型转换规则 `_ ,使数据类型保持一致。 + - 输入 `x` 和 `y` 遵循 `隐式类型转换规则 `_ ,使数据类型保持一致。 - 输入必须是两个Tensor,或一个Tensor和一个Scalar。 - 当输入是两个Tensor时,它们的数据类型不能同时是bool,并保证其shape可以广播。 - 当输入是一个Tensor和一个Scalar时,Scalar只能是一个常数。 **输入:** - - **x** (Union[Tensor, number.Number, bool]) - 第一个输入,是一个number.Number、bool值或数据类型为 `number `_ 或 `bool_ `_ 的Tensor。 + - **x** (Union[Tensor, number.Number, bool]) - 第一个输入,是一个number.Number、bool值或数据类型为 `number `_ 或 `bool_ `_ 的Tensor。 - **y** (Union[Tensor, number.Number, bool]) - 第二个输入,当第一个输入是Tensor时,第二个输入应该是一个number.Number或bool值,或数据类型为number或bool_的Tensor。当第一个输入是Scalar时,第二个输入必须是数据类型为number或bool_的Tensor。 **输出:** diff --git a/docs/api/api_python/ops/mindspore.ops.Eye.rst b/docs/api/api_python/ops/mindspore.ops.Eye.rst index 506091957c5..2bf76331b41 100644 --- a/docs/api/api_python/ops/mindspore.ops.Eye.rst +++ b/docs/api/api_python/ops/mindspore.ops.Eye.rst @@ -9,7 +9,7 @@ mindspore.ops.Eye - **n** (int) - 指定返回Tensor的行数。仅支持常量值。 - **m** (int) - 指定返回Tensor的列数。仅支持常量值。 - - **t** (mindspore.dtype) - 指定返回Tensor的数据类型。数据类型必须是`bool_ `_或`number `_。 + - **t** (mindspore.dtype) - 指定返回Tensor的数据类型。数据类型必须是`bool_ `_或`number `_。 **输出:** diff --git a/docs/api/api_python/ops/mindspore.ops.Fill.rst b/docs/api/api_python/ops/mindspore.ops.Fill.rst index 23ca57fe964..220e5c59c6c 100644 --- a/docs/api/api_python/ops/mindspore.ops.Fill.rst +++ b/docs/api/api_python/ops/mindspore.ops.Fill.rst @@ -7,7 +7,7 @@ mindspore.ops.Fill **输入:** - - **type** (mindspore.dtype) - 指定输出Tensor的数据类型。数据类型只支持`bool_ `_和`number `_。 + - **type** (mindspore.dtype) - 指定输出Tensor的数据类型。数据类型只支持`bool_ `_和`number `_。 - **shape** (tuple[int]) - 指定输出Tensor的shape。 - **value** (Union(number.Number, bool)) - 用来填充输出Tensor的值。 diff --git a/docs/api/api_python/ops/mindspore.ops.Greater.rst b/docs/api/api_python/ops/mindspore.ops.Greater.rst index ed557d57676..557aebca6fb 100644 --- a/docs/api/api_python/ops/mindspore.ops.Greater.rst +++ b/docs/api/api_python/ops/mindspore.ops.Greater.rst @@ -21,7 +21,7 @@ mindspore.ops.Greater **输入:** - - **x** (Union[Tensor, number.Number, bool]) - 第一个输入,是一个number.Number、bool值或数据类型为`number `_或`bool_ `_的Tensor。 + - **x** (Union[Tensor, number.Number, bool]) - 第一个输入,是一个number.Number、bool值或数据类型为`number `_或`bool_ `_的Tensor。 - **y** (Union[Tensor, number.Number, bool]) - 第二个输入,当第一个输入是Tensor时,第二个输入应该是一个number.Number或bool值,或数据类型为number或bool_的Tensor。当第一个输入是Scalar时,第二个输入必须是数据类型为number或bool_的Tensor。 **输出:** diff --git a/docs/api/api_python/ops/mindspore.ops.LessEqual.rst b/docs/api/api_python/ops/mindspore.ops.LessEqual.rst index f9f2d0c3a48..6ea6a18709c 100644 --- a/docs/api/api_python/ops/mindspore.ops.LessEqual.rst +++ b/docs/api/api_python/ops/mindspore.ops.LessEqual.rst @@ -13,14 +13,14 @@ mindspore.ops.LessEqual \end{cases} .. note:: - - 输入 `x` 和 `y` 遵循 `隐式类型转换规则 `_ ,使数据类型保持一致。 + - 输入 `x` 和 `y` 遵循 `隐式类型转换规则 `_ ,使数据类型保持一致。 - 输入必须是两个Tensor,或一个Tensor和一个Scalar。 - 当输入是两个Tensor时,它们的数据类型不能同时是bool,并保证其shape可以广播。 - 当输入是一个Tensor和一个Scalar时,Scalar只能是一个常数。 **输入:** - - **x** (Union[Tensor, number.Number, bool]) - 第一个输入,是一个number.Number、bool值或数据类型为 `number `_ 或 `bool_ `_ 的Tensor。 + - **x** (Union[Tensor, number.Number, bool]) - 第一个输入,是一个number.Number、bool值或数据类型为 `number `_ 或 `bool_ `_ 的Tensor。 - **y** (Union[Tensor, number.Number, bool]) - 第二个输入,当第一个输入是Tensor时,第二个输入应该是一个number.Number或bool值,或数据类型为number或bool_的Tensor。当第一个输入是Scalar时,第二个输入必须是数据类型为number或bool_的Tensor。 **输出:** diff --git a/docs/api/api_python/ops/mindspore.ops.Mul.rst b/docs/api/api_python/ops/mindspore.ops.Mul.rst index 956fa248d65..5596865dcd5 100644 --- a/docs/api/api_python/ops/mindspore.ops.Mul.rst +++ b/docs/api/api_python/ops/mindspore.ops.Mul.rst @@ -10,14 +10,14 @@ mindspore.ops.Mul out_{i} = x_{i} * y_{i} .. note:: - - 输入 `x` 和 `y` 遵循 `隐式类型转换规则 `_ ,使数据类型保持一致。 + - 输入 `x` 和 `y` 遵循 `隐式类型转换规则 `_ ,使数据类型保持一致。 - 输入必须是两个Tensor,或一个Tensor和一个Scalar。 - 当输入是两个Tensor时,它们的数据类型不能同时是bool,并保证其shape可以广播。 - 当输入是一个Tensor和一个Scalar时,Scalar只能是一个常数。 **输入:** - - **x** (Union[Tensor, number.Number, bool]) - 第一个输入,是一个number.Number、bool值或数据类型为 `number `_ 或 `bool_ `_ 的Tensor。 + - **x** (Union[Tensor, number.Number, bool]) - 第一个输入,是一个number.Number、bool值或数据类型为 `number `_ 或 `bool_ `_ 的Tensor。 - **y** (Union[Tensor, number.Number, bool]) - 第二个输入,当第一个输入是Tensor时,第二个输入应该是一个number.Number或bool值,或数据类型为number或bool_的Tensor。当第一个输入是Scalar时,第二个输入必须是数据类型为number或bool_的Tensor。 **输出:** diff --git a/docs/api/api_python/ops/mindspore.ops.Pow.rst b/docs/api/api_python/ops/mindspore.ops.Pow.rst index 8a976e652f6..5a004e6b230 100644 --- a/docs/api/api_python/ops/mindspore.ops.Pow.rst +++ b/docs/api/api_python/ops/mindspore.ops.Pow.rst @@ -10,14 +10,14 @@ mindspore.ops.Pow out_{i} = x_{i} ^{ y_{i}} .. note:: - - 输入 `x` 和 `y` 遵循 `隐式类型转换规则 `_ ,使数据类型保持一致。 + - 输入 `x` 和 `y` 遵循 `隐式类型转换规则 `_ ,使数据类型保持一致。 - 输入必须是两个Tensor,或一个Tensor和一个Scalar。 - 当输入是两个Tensor时,它们的数据类型不能同时是bool,并保证其shape可以广播。 - 当输入是一个Tensor和一个Scalar时,Scalar只能是一个常数。 **输入:** - - **x** (Union[Tensor, number.Number, bool]) - 第一个输入,是一个number.Number、bool值或数据类型为 `number `_ 或 `bool_ `_ 的Tensor。 + - **x** (Union[Tensor, number.Number, bool]) - 第一个输入,是一个number.Number、bool值或数据类型为 `number `_ 或 `bool_ `_ 的Tensor。 - **y** (Union[Tensor, number.Number, bool]) - 第二个输入,当第一个输入是Tensor时,第二个输入应该是一个number.Number或bool值,或数据类型为number或bool_的Tensor。当第一个输入是Scalar时,第二个输入必须是数据类型为number或bool_的Tensor。 **输出:** diff --git a/docs/api/api_python/ops/mindspore.ops.Size.rst b/docs/api/api_python/ops/mindspore.ops.Size.rst index eb12a4f18d4..62a7c686df6 100644 --- a/docs/api/api_python/ops/mindspore.ops.Size.rst +++ b/docs/api/api_python/ops/mindspore.ops.Size.rst @@ -7,7 +7,7 @@ mindspore.ops.Size **输入:** - - **input_x** (Tensor) - 输入参数,shape为 :math:`(x_1, x_2, ..., x_R)` 。数据类型为 `number `_ 。 + - **input_x** (Tensor) - 输入参数,shape为 :math:`(x_1, x_2, ..., x_R)` 。数据类型为 `number `_ 。 **输出:** diff --git a/docs/api/api_python/ops/mindspore.ops.Sub.rst b/docs/api/api_python/ops/mindspore.ops.Sub.rst index 9eae4f2d266..d82d2ed743d 100644 --- a/docs/api/api_python/ops/mindspore.ops.Sub.rst +++ b/docs/api/api_python/ops/mindspore.ops.Sub.rst @@ -10,14 +10,14 @@ mindspore.ops.Sub out_{i} = x_{i} - y_{i} .. note:: - - 输入 `x` 和 `y` 遵循 `隐式类型转换规则 `_ ,使数据类型保持一致。 + - 输入 `x` 和 `y` 遵循 `隐式类型转换规则 `_ ,使数据类型保持一致。 - 输入必须是两个Tensor,或一个Tensor和一个Scalar。 - 当输入是两个Tensor时,它们的数据类型不能同时是bool,它们的shape可以广播。 - 当输入是一个Tensor和一个Scalar时,Scalar只能是一个常数。 **输入:** - - **x** (Union[Tensor, number.Number, bool]) - 第一个输入,是一个number.Number、bool值或数据类型为 `number `_ 或 `bool_ `_ 的Tensor。 + - **x** (Union[Tensor, number.Number, bool]) - 第一个输入,是一个number.Number、bool值或数据类型为 `number `_ 或 `bool_ `_ 的Tensor。 - **y** (Union[Tensor, number.Number, bool]) - 第二个输入,当第一个输入是Tensor时,第二个输入应该是一个number.Number或bool值,或数据类型为number或bool_的Tensor。当第一个输入是Scalar时,第二个输入必须是数据类型为number或bool_的Tensor。 **输出:** diff --git a/mindspore/ccsrc/backend/kernel_compiler/tbe/tbe_utils.cc b/mindspore/ccsrc/backend/kernel_compiler/tbe/tbe_utils.cc index cbf4c8bb86e..8757fa96d20 100644 --- a/mindspore/ccsrc/backend/kernel_compiler/tbe/tbe_utils.cc +++ b/mindspore/ccsrc/backend/kernel_compiler/tbe/tbe_utils.cc @@ -120,7 +120,7 @@ std::string GetOpDebugLevel() { if (!TbeUtils::IsOneOf(value_ranges, std::atoi(env_level.c_str()))) { MS_LOG(WARNING) << "Invalid environment variable '" << kCOMPILER_OP_LEVEL << "': " << env_level << ", the value should be in [0, 1, 2, 3, 4], now using the default value 3." - "Get more detail info at https://www.mindspore.cn/docs/note/zh-CN/master/env_var_list.html"; + "Get more detail info at https://www.mindspore.cn/docs/note/zh-CN/r1.6/env_var_list.html"; } else { op_debug_level = env_level; } diff --git a/mindspore/ccsrc/distributed/cluster/cluster_context.h b/mindspore/ccsrc/distributed/cluster/cluster_context.h index bb0a4f37d8a..fa2dbe8d3df 100644 --- a/mindspore/ccsrc/distributed/cluster/cluster_context.h +++ b/mindspore/ccsrc/distributed/cluster/cluster_context.h @@ -42,7 +42,7 @@ constexpr char kDetailedFailureReason[] = "Maybe you are trying to call 'mindspore.communication.init()' without using 'mpirun', which will make MindSpore " "load several environment variables and check their validation. Please use 'mpirun' to launch this process to fix " "this issue, or refer to this link if you want to run distributed training without using 'mpirun': " - "https://www.mindspore.cn/docs/programming_guide/zh-CN/master/distributed_training_gpu.html#openmpi."; + "https://www.mindspore.cn/docs/programming_guide/zh-CN/r1.6/distributed_training_gpu.html#openmpi."; // Node role based cluster built by MindSpore communication framework. class ClusterContext { diff --git a/mindspore/ccsrc/frontend/operator/composite/do_signature.cc b/mindspore/ccsrc/frontend/operator/composite/do_signature.cc index 133fb4732c2..32e104f8cd3 100644 --- a/mindspore/ccsrc/frontend/operator/composite/do_signature.cc +++ b/mindspore/ccsrc/frontend/operator/composite/do_signature.cc @@ -350,7 +350,7 @@ void RaiseExceptionForConvertRefDtype(const std::string &func_name, const std::s MS_LOG(EXCEPTION) << "Data type conversion of 'Parameter' is not supported, so data type " << ref_type << " cannot be converted to data type " << target_type << " automatically.\n" << "For more details, please refer at " - << "https://www.mindspore.cn/docs/note/zh-CN/master/operator_list_implicit.html."; + << "https://www.mindspore.cn/docs/note/zh-CN/r1.6/operator_list_implicit.html."; } void RaiseExceptionForCheckParameter(const std::string &func_name, size_t i, const std::string &source_type) { MS_EXCEPTION(TypeError) << "Function " << func_name << "'s input " << i << " should be a Parameter, but " diff --git a/mindspore/lite/README.md b/mindspore/lite/README.md index 1f9c3b365b3..021255696fa 100644 --- a/mindspore/lite/README.md +++ b/mindspore/lite/README.md @@ -6,7 +6,7 @@ MindSpore lite is a high-performance, lightweight open source reasoning framewor MindSpore Lite Architecture -For more details please check out our [MindSpore Lite Architecture Guide](https://www.mindspore.cn/lite/docs/en/master/architecture_lite.html). +For more details please check out our [MindSpore Lite Architecture Guide](https://www.mindspore.cn/lite/docs/en/r1.6/architecture_lite.html). ### MindSpore Lite features @@ -41,7 +41,7 @@ For more details please check out our [MindSpore Lite Architecture Guide](https: 2. Model converter and optimization - If you use MindSpore or a third-party model, you need to use [MindSpore Lite Model Converter Tool](https://www.mindspore.cn/lite/docs/en/master/use/converter_tool.html) to convert the model into MindSpore Lite model. The MindSpore Lite model converter tool provides the converter of TensorFlow Lite, Caffe, ONNX to MindSpore Lite model, fusion and quantization could be introduced during convert procedure. + If you use MindSpore or a third-party model, you need to use [MindSpore Lite Model Converter Tool](https://www.mindspore.cn/lite/docs/en/r1.6/use/converter_tool.html) to convert the model into MindSpore Lite model. The MindSpore Lite model converter tool provides the converter of TensorFlow Lite, Caffe, ONNX to MindSpore Lite model, fusion and quantization could be introduced during convert procedure. MindSpore also provides a tool to convert models running on IoT devices . @@ -51,7 +51,7 @@ For more details please check out our [MindSpore Lite Architecture Guide](https: 4. Inference - Load the model and perform inference. [Inference](https://www.mindspore.cn/lite/docs/en/master/use/runtime.html) is the process of running input data through the model to get output. + Load the model and perform inference. [Inference](https://www.mindspore.cn/lite/docs/en/r1.6/use/runtime.html) is the process of running input data through the model to get output. MindSpore provides pre-trained model that can be deployed on mobile device [example](https://www.mindspore.cn/lite/examples/en). diff --git a/mindspore/lite/README_CN.md b/mindspore/lite/README_CN.md index 1c36927c7c9..18d4d659a6a 100644 --- a/mindspore/lite/README_CN.md +++ b/mindspore/lite/README_CN.md @@ -7,7 +7,7 @@ MindSpore Lite是MindSpore推出的端云协同的、轻量化、高性能AI推 MindSpore Lite Architecture -欲了解更多详情,请查看我们的[MindSpore Lite 总体架构](https://www.mindspore.cn/lite/docs/zh-CN/master/architecture_lite.html)。 +欲了解更多详情,请查看我们的[MindSpore Lite 总体架构](https://www.mindspore.cn/lite/docs/zh-CN/r1.6/architecture_lite.html)。 ## MindSpore Lite技术特点 @@ -47,7 +47,7 @@ MindSpore Lite是MindSpore推出的端云协同的、轻量化、高性能AI推 2. 模型转换/优化 - 如果您使用MindSpore或第三方训练的模型,需要使用[MindSpore Lite模型转换工具](https://www.mindspore.cn/lite/docs/zh-CN/master/use/converter_tool.html)转换成MindSpore Lite模型格式。MindSpore Lite模型转换工具不仅提供了将TensorFlow Lite、Caffe、ONNX等模型格式转换为MindSpore Lite模型格式,还提供了算子融合、量化等功能。 + 如果您使用MindSpore或第三方训练的模型,需要使用[MindSpore Lite模型转换工具](https://www.mindspore.cn/lite/docs/zh-CN/r1.6/use/converter_tool.html)转换成MindSpore Lite模型格式。MindSpore Lite模型转换工具不仅提供了将TensorFlow Lite、Caffe、ONNX等模型格式转换为MindSpore Lite模型格式,还提供了算子融合、量化等功能。 MindSpore还提供了将IoT设备上运行的模型转换成.C代码的生成工具。 @@ -59,7 +59,7 @@ MindSpore Lite是MindSpore推出的端云协同的、轻量化、高性能AI推 4. 模型推理 - 主要完成模型推理工作,即加载模型,完成模型相关的所有计算。[推理](https://www.mindspore.cn/lite/docs/zh-CN/master/use/runtime.html)是通过模型运行输入数据,获取预测的过程。 + 主要完成模型推理工作,即加载模型,完成模型相关的所有计算。[推理](https://www.mindspore.cn/lite/docs/zh-CN/r1.6/use/runtime.html)是通过模型运行输入数据,获取预测的过程。 MindSpore提供了预训练模型部署在智能终端的[样例](https://www.mindspore.cn/lite/examples)。 diff --git a/mindspore/lite/examples/runtime_cpp/README.md b/mindspore/lite/examples/runtime_cpp/README.md index 49b1096a13b..37516bb50f1 100644 --- a/mindspore/lite/examples/runtime_cpp/README.md +++ b/mindspore/lite/examples/runtime_cpp/README.md @@ -16,7 +16,7 @@ bash build.sh ``` - > 若MindSpore Lite推理框架下载失败,请手动下载硬件平台为CPU,操作系统为Ubuntu-x64的[MindSpore Lite 模型推理框架](https://www.mindspore.cn/lite/docs/zh-CN/master/use/downloads.html),解压后将其拷贝对应到`mindspore/lite/examples/runtime_cpp/lib`目录。 + > 若MindSpore Lite推理框架下载失败,请手动下载硬件平台为CPU,操作系统为Ubuntu-x64的[MindSpore Lite 模型推理框架](https://www.mindspore.cn/lite/docs/zh-CN/r1.6/use/downloads.html),解压后将其拷贝对应到`mindspore/lite/examples/runtime_cpp/lib`目录。 > > 若mobilenetv2模型下载失败,请手动下载相关模型文件[mobilenetv2](https://download.mindspore.cn/model_zoo/official/lite/mobilenetv2_openimage_lite/mobilenetv2.ms),并将其拷贝到`mindspore/lite/examples/runtime_cpp/model`目录。 diff --git a/mindspore/lite/examples/train_lenet/README.md b/mindspore/lite/examples/train_lenet/README.md index e3603e979dd..043bd2d3381 100644 --- a/mindspore/lite/examples/train_lenet/README.md +++ b/mindspore/lite/examples/train_lenet/README.md @@ -46,8 +46,8 @@ mnist/ - Server side - [MindSpore Framework](https://www.mindspore.cn/install/en): it is recommended to install a docker image - MindSpore ToD Framework - - [Downloads](https://www.mindspore.cn/lite/docs/en/master/use/downloads.html) - - [Build](https://www.mindspore.cn/lite/docs/en/master/use/build.html) + - [Downloads](https://www.mindspore.cn/lite/docs/en/r1.6/use/downloads.html) + - [Build](https://www.mindspore.cn/lite/docs/en/r1.6/use/build.html) - [Android NDK r20b](https://dl.google.com/android/repository/android-ndk-r20b-linux-x86_64.zip) - [Android SDK](https://developer.android.com/studio?hl=zh-cn#cmdline-tools) - A connected Android device diff --git a/mindspore/lite/examples/train_lenet/README_CN.md b/mindspore/lite/examples/train_lenet/README_CN.md index f3a3ba13130..44d608bb370 100644 --- a/mindspore/lite/examples/train_lenet/README_CN.md +++ b/mindspore/lite/examples/train_lenet/README_CN.md @@ -45,8 +45,8 @@ mnist/ - 服务器或个人笔记本 - [MindSpore Framework](https://www.mindspore.cn/install): 建议使用Docker安装 - - [MindSpore ToD Download](https://www.mindspore.cn/lite/docs/zh-CN/master/use/downloads.html) - - [MindSpore ToD Build](https://www.mindspore.cn/lite/docs/zh-CN/master/use/build.html) + - [MindSpore ToD Download](https://www.mindspore.cn/lite/docs/zh-CN/r1.6/use/downloads.html) + - [MindSpore ToD Build](https://www.mindspore.cn/lite/docs/zh-CN/r1.6/use/build.html) - [Android NDK r20b](https://dl.google.com/android/repository/android-ndk-r20b-linux-x86_64.zip) - [Android SDK](https://developer.android.com/studio?hl=zh-cn#cmdline-tools) - Android移动设备 diff --git a/mindspore/lite/examples/transfer_learning/README.md b/mindspore/lite/examples/transfer_learning/README.md index 4f7e24c924a..0f455e9ddca 100644 --- a/mindspore/lite/examples/transfer_learning/README.md +++ b/mindspore/lite/examples/transfer_learning/README.md @@ -48,8 +48,8 @@ places - Server side - [MindSpore Framework](https://www.mindspore.cn/install/en) - it is recommended to install a docker image - MindSpore ToD Framework - - [Downloads](https://www.mindspore.cn/lite/docs/en/master/use/downloads.html) - - [Build](https://www.mindspore.cn/lite/docs/en/master/use/build.html) + - [Downloads](https://www.mindspore.cn/lite/docs/en/r1.6/use/downloads.html) + - [Build](https://www.mindspore.cn/lite/docs/en/r1.6/use/build.html) - [Android NDK r20b](https://dl.google.com/android/repository/android-ndk-r20b-linux-x86_64.zip) - [Android SDK](https://developer.android.com/studio?hl=zh-cn#cmdline-tools) - [ImageMagick convert tool](https://imagemagick.org/) diff --git a/mindspore/lite/examples/transfer_learning/README_CN.md b/mindspore/lite/examples/transfer_learning/README_CN.md index 260042f5f33..49364497145 100644 --- a/mindspore/lite/examples/transfer_learning/README_CN.md +++ b/mindspore/lite/examples/transfer_learning/README_CN.md @@ -47,8 +47,8 @@ places - 服务端 - [MindSpore Framework](https://www.mindspore.cn/install/en) - 建议使用安装docker环境 - - [MindSpore ToD Download](https://www.mindspore.cn/lite/docs/zh-CN/master/use/downloads.html) - - [MindSpore ToD Build](https://www.mindspore.cn/lite/docs/zh-CN/master/use/build.html) + - [MindSpore ToD Download](https://www.mindspore.cn/lite/docs/zh-CN/r1.6/use/downloads.html) + - [MindSpore ToD Build](https://www.mindspore.cn/lite/docs/zh-CN/r1.6/use/build.html) - [Android NDK r20b](https://dl.google.com/android/repository/android-ndk-r20b-linux-x86_64.zip) - [Android SDK](https://developer.android.com/studio?hl=zh-cn#cmdline-tools) - [ImageMagick convert tool](https://imagemagick.org/) diff --git a/mindspore/lite/examples/unified_api/README.md b/mindspore/lite/examples/unified_api/README.md index e3603e979dd..043bd2d3381 100644 --- a/mindspore/lite/examples/unified_api/README.md +++ b/mindspore/lite/examples/unified_api/README.md @@ -46,8 +46,8 @@ mnist/ - Server side - [MindSpore Framework](https://www.mindspore.cn/install/en): it is recommended to install a docker image - MindSpore ToD Framework - - [Downloads](https://www.mindspore.cn/lite/docs/en/master/use/downloads.html) - - [Build](https://www.mindspore.cn/lite/docs/en/master/use/build.html) + - [Downloads](https://www.mindspore.cn/lite/docs/en/r1.6/use/downloads.html) + - [Build](https://www.mindspore.cn/lite/docs/en/r1.6/use/build.html) - [Android NDK r20b](https://dl.google.com/android/repository/android-ndk-r20b-linux-x86_64.zip) - [Android SDK](https://developer.android.com/studio?hl=zh-cn#cmdline-tools) - A connected Android device diff --git a/mindspore/lite/examples/unified_api/README_CN.md b/mindspore/lite/examples/unified_api/README_CN.md index f3a3ba13130..44d608bb370 100644 --- a/mindspore/lite/examples/unified_api/README_CN.md +++ b/mindspore/lite/examples/unified_api/README_CN.md @@ -45,8 +45,8 @@ mnist/ - 服务器或个人笔记本 - [MindSpore Framework](https://www.mindspore.cn/install): 建议使用Docker安装 - - [MindSpore ToD Download](https://www.mindspore.cn/lite/docs/zh-CN/master/use/downloads.html) - - [MindSpore ToD Build](https://www.mindspore.cn/lite/docs/zh-CN/master/use/build.html) + - [MindSpore ToD Download](https://www.mindspore.cn/lite/docs/zh-CN/r1.6/use/downloads.html) + - [MindSpore ToD Build](https://www.mindspore.cn/lite/docs/zh-CN/r1.6/use/build.html) - [Android NDK r20b](https://dl.google.com/android/repository/android-ndk-r20b-linux-x86_64.zip) - [Android SDK](https://developer.android.com/studio?hl=zh-cn#cmdline-tools) - Android移动设备 diff --git a/mindspore/python/mindspore/dataset/engine/datasets_user_defined.py b/mindspore/python/mindspore/dataset/engine/datasets_user_defined.py index 58aefe4b21c..35689461d9c 100644 --- a/mindspore/python/mindspore/dataset/engine/datasets_user_defined.py +++ b/mindspore/python/mindspore/dataset/engine/datasets_user_defined.py @@ -16,7 +16,7 @@ This file contains contains basic classes that help users do flexible dataset loading. You can define your own dataset loading class, and use GeneratorDataset to help load data. You can refer to the -`tutorial ` +`tutorial ` to help define your dataset loading. After declaring the dataset object, you can further apply dataset operations (e.g. filter, skip, concat, map, batch) on it. diff --git a/mindspore/python/mindspore/dataset/engine/graphdata.py b/mindspore/python/mindspore/dataset/engine/graphdata.py index 187184f48ae..1b85c8d5e47 100644 --- a/mindspore/python/mindspore/dataset/engine/graphdata.py +++ b/mindspore/python/mindspore/dataset/engine/graphdata.py @@ -75,7 +75,7 @@ class GraphData: Support reading graph datasets like Cora, Citeseer and PubMed. About how to load raw graph dataset into MindSpore please - refer to `Loading Graph Dataset `_. + refer to `Loading Graph Dataset `_. Args: dataset_file (str): One of file names in the dataset.