修正 probability 中文api
This commit is contained in:
parent
d1c989ae85
commit
80c01ae56f
|
@ -11,9 +11,8 @@ mindspore.nn.probability.bnn_layers.ConvReparam
|
|||
|
||||
- **in_channels** (int) - 输入的channels :math:`C_{in}`。
|
||||
- **out_channels** (int) – 输出的channels :math:`C_{out}`。
|
||||
- **kernel_size** (Union[int, tuple[int]]) - 数据类型是 int 或2个 int 的元组。内核大小指定二维卷积窗口的高度和宽度。一个整数代表内核的高度和宽度。 `kernel_size` 是2个整数的元组,第一个值是高度,第二个值是内核的宽度。
|
||||
- **kernel_size** (Union[int, tuple[int]]) - 数据类型是 int 或2个 int 的元组。内核大小指定二维卷积窗口的高度和宽度。若为一个整数则高度和宽度均为该值,若为元组则两个值分别为高度和宽度。
|
||||
- **stride** (Union[int, tuple[int]]) – 内核移动的距离,若是一个整数表示,则移动的高度和宽度都是步幅,或者两个整数的元组分别表示移动的高度和宽度。默认值:1。
|
||||
|
||||
- **pad_mode** (str) – 指定填充模式。可选值是"same"、"valid"和"pad"。默认值:"same"。
|
||||
|
||||
- same:采用补全方式。输出高度和宽度将与输入相同。将在水平和垂直方向上计算填充的总数,并尽可能均匀地分布在顶部和底部、左侧和右侧。否则,最后的额外填充将从底部和右侧完成。如果设置了此模式,则 `padding` 必须为0。
|
||||
|
|
|
@ -12,14 +12,14 @@ mindspore.nn.probability.bnn_layers.DenseLocalReparam
|
|||
.. math::
|
||||
\text{outputs} = \text{activation}(\text{inputs} * \text{weight} + \text{bias}),
|
||||
|
||||
在这个公式中, activation 作为 `activation` 参数传递的激活函数(如果传入), activation 是与创建层的输入具有相同数据类型的权重矩阵, weight 是从权重的后验分布采样的权重矩阵,并且 bias 是与层创建的输入具有相同数据类型的偏置向量(仅当 has_bias 为 True 时)。偏差向量是从后验分布中采样的 bias。
|
||||
此公式中,activation 为激活函数(若`activation` 参数传入),是与创建层的输入具有相同数据类型的权重矩阵。weight 是从权重的后验分布采样的权重矩阵。bias 是与由层创建的输入具有相同数据类型的偏置向量(仅当 `has_bias` 为 True 时),从 bias 的后验分布中采样。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **in_channels** (int) – 输入通道的数量。
|
||||
- **out_channels** (int) - 输出通道的数量。
|
||||
- **activation** (str, Cell) – 应用于输出层的正则化函数。激活的类型可以是 string(例如'relu')或单元格(例如nn.ReLU())。注意,如果激活的类型是 Cell,则必须事先实例化。默认值:None。
|
||||
- **has_bias** (bool) - 指定层是否使用偏置向量。默认值:false。
|
||||
- **activation** (str, Cell) – 应用于输出层的正则化函数。激活的类型可以是 string(例如'relu')或 Cell(例如nn.ReLU())。注意,如果激活的类型是 Cell,则必须事先实例化。默认值:None。
|
||||
- **has_bias** (bool) - 指定层是否使用偏置向量。默认值:True。
|
||||
- **weight_prior_fn** (Cell) - 它必须返回一个 mindspore 分布实例。默认值:NormalPrior。(创建标准正态分布的一个实例)。当前版本仅支持正态分布。
|
||||
- **weight_posterior_fn** (function) – 采样权重的后验分布。它必须是一个函数句柄,它返回一个 mindspore 分布实例。默认值:normal_post_fn。当前版本仅支持正态分布。
|
||||
- **bias_prior_fn** (Cell) – 偏置向量的先验分布。它必须返回一个 mindspore 分布实例。默认值:NormalPrior(创建标准正态分布的实例)。当前版本仅支持正态分布。
|
||||
|
|
|
@ -13,15 +13,14 @@ mindspore.nn.probability.bnn_layers.DenseReparam
|
|||
|
||||
\text{outputs} = \text{activation}(\text{inputs} * \text{weight} + \text{bias}),
|
||||
|
||||
在本公式中 :math:`\text{activation}` 是作为激活参数传递的激活函数(如果传入,:math:`\text{activation}` 是与创建层的输入具有相同数据类型的权重矩阵,
|
||||
weight 是从权重的后验分布采样的权重矩阵,并且 bias 是与层创建的输入具有相同数据类型的偏置向量(仅当 has_bias 为 True 时)。偏差向量是从后验分布中采样的 bias。
|
||||
此公式中,activation 为激活函数(若`activation` 参数传入),是与创建层的输入具有相同数据类型的权重矩阵。weight 是从权重的后验分布采样的权重矩阵。bias 是与由层创建的输入具有相同数据类型的偏置向量(仅当 `has_bias` 为 True 时),从 bias 的后验分布中采样。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **in_channels** (int) – 输入通道的数量。
|
||||
- **out_channels** (int) – 输出通道的数量。
|
||||
- **activation** (str, Cell) – 应用于层输出的正则化函数。激活的类型可以是 str(例如'relu')或 Cell(例如nn.ReLU())。注意,如果激活的类型是 Cell,则必须事先实例化。默认值:None。
|
||||
- **has_bias** (bool) - 指定层是否使用偏置向量。默认值:false。
|
||||
- **has_bias** (bool) - 指定层是否使用偏置向量。默认值:True。
|
||||
- **weight_prior_fn** (Cell) - 权重的先验分布。它必须返回一个 mindspore 分布实例。默认值:NormalPrior。(创建标准正态分布的一个实例)。当前版本仅支持正态分布。
|
||||
- **weight_posterior_fn** (function) - 采样权重的后验分布。它必须是一个函数句柄,它返回一个 mindspore 分布实例。默认值:normal_post_fn。当前版本仅支持正态分布。
|
||||
- **bias_prior_fn** (Cell) - 偏置向量的先验分布。它必须返回一个 mindspore 分布实例。默认值:NormalPrior(创建标准正态分布的实例)。当前版本仅支持正态分布。
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.nn.probability.bnn_layers.NormalPrior
|
||||
===============================================
|
||||
|
||||
.. py:class:: mindspore.nn.probability.bnn_layers.NormalPrior(dtype=mstype.float32, mean=0, std=0.1)
|
||||
.. py:class:: mindspore.nn.probability.bnn_layers.NormalPrior(dtype=mindspore.float32, mean=0, std=0.1)
|
||||
|
||||
初始化均值 0 和标准差 0.1 的正态分布。
|
||||
|
||||
|
|
|
@ -3,7 +3,7 @@ mindspore.nn.probability.bnn_layers.WithBNNLossCell
|
|||
|
||||
.. py:class:: mindspore.nn.probability.bnn_layers.WithBNNLossCell(backbone, loss_fn, dnn_factor=1, bnn_factor=1)
|
||||
|
||||
为 BNN 生成一个合适的 WithLossCell,用损失函数包裹贝叶斯网络。
|
||||
为 BNN 生成一个合适的 WithLossCell,用损失函数包装贝叶斯网络。
|
||||
|
||||
**参数:**
|
||||
|
||||
|
@ -24,8 +24,8 @@ mindspore.nn.probability.bnn_layers.WithBNNLossCell
|
|||
.. py:method:: backbone_network
|
||||
:property:
|
||||
|
||||
返回骨干网。
|
||||
返回backbone_network。
|
||||
|
||||
**返回:**
|
||||
|
||||
Cell,骨干网。
|
||||
Cell,backbone_network。
|
||||
|
|
|
@ -7,13 +7,13 @@ mindspore.nn.probability.dpn.ConditionalVAE
|
|||
与 VAE 的区别在于 CVAE 使用标签信息。有关更多详细信息,请参阅 `基于深度条件生成模型学习结构化输出表示 <http://papers.nips.cc/paper/5775-learning-structured-output-representation-using-deep-conditional-generative-models>`_。
|
||||
|
||||
.. note::
|
||||
定义编码器和解码器时,编码器的输出 Tensor 和解码器的输入 Tensor 的 shape 必须是 :math:`(N, hidden_size)`。潜在大小必须小于或等于隐藏大小。
|
||||
定义编码器和解码器时,编码器的输出 Tensor 和解码器的输入 Tensor 的 shape 必须是 :math:`(N, hidden\_size)`。潜在大小必须小于或等于隐藏大小。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **encoder** (Cell) - 定义为编码器的深度神经网络 (DNN) 模型。
|
||||
- **decoder** (Cell) - 定义为解码器的深度神经网络 (DNN) 模型。
|
||||
- **hidden_size** (int) - 编码器输出 Tensor 的大小。
|
||||
- **hidden_size** (int) - 编码器输出 Tensor 的隐藏大小。
|
||||
- **latent_size** (int) - 潜在空间的大小。
|
||||
- **num_classes** (int) - 类的数量。
|
||||
|
||||
|
@ -24,7 +24,7 @@ mindspore.nn.probability.dpn.ConditionalVAE
|
|||
|
||||
**输出:**
|
||||
|
||||
- **output** (tuple) - (recon_x(Tensor), x(Tensor), mu(Tensor), std(Tensor))。
|
||||
- **output** (tuple) - tuple 包含 (recon_x(Tensor), x(Tensor), mu(Tensor), std(Tensor))。
|
||||
|
||||
.. py:method:: generate_sample(sample_y, generate_nums, shape)
|
||||
|
||||
|
@ -32,9 +32,9 @@ mindspore.nn.probability.dpn.ConditionalVAE
|
|||
|
||||
**参数:**
|
||||
|
||||
- **sample_y** (Tensor) - 定义样本的标签。 Tensor 的 shape (generate_nums, ) 和类型 mindspore.int32。
|
||||
- **sample_y** (Tensor) - 定义样本的标签。 Tensor 的 shape (`generate_nums`, ) 和类型 mindspore.int32。
|
||||
- **generate_nums** (int) - 要生成的样本数。
|
||||
- **shape** (tuple) - 样例的 shape,格式必须为 (generate_nums, C, H, W) 或 (-1, C, H, W)。
|
||||
- **shape** (tuple) - 样例的 shape,格式必须为 (`generate_nums`, C, H, W) 或 (-1, C, H, W)。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
@ -46,8 +46,8 @@ mindspore.nn.probability.dpn.ConditionalVAE
|
|||
|
||||
**参数:**
|
||||
|
||||
- **x** (Tensor) - 要重构的输入 Tensor,shape 为 (N, C, H, W)。
|
||||
- **y** (Tensor) - 要输入 Tensor 的 label,shape 为 (N, C, H, W)。
|
||||
- **x** (Tensor) - 重构的输入 Tensor,shape 为 (N, C, H, W)。
|
||||
- **y** (Tensor) - 输入 Tensor 的 label,shape 为 (N, C, H, W)。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
|
|
@ -12,7 +12,7 @@ mindspore.nn.probability.dpn.VAE
|
|||
|
||||
- **encoder** (Cell) - 定义为编码器的深度神经网络 (DNN) 模型。
|
||||
- **decoder** (Cell) - 定义为解码器的深度神经网络 (DNN) 模型。
|
||||
- **hidden_size** (int) - 编码器输出 Tensor 的大小。
|
||||
- **hidden_size** (int) - 编码器输出 Tensor 的隐藏大小。
|
||||
- **latent_size** (int) - 潜在空间的大小。
|
||||
|
||||
**输入:**
|
||||
|
@ -30,7 +30,7 @@ mindspore.nn.probability.dpn.VAE
|
|||
**参数:**
|
||||
|
||||
- **generate_nums** (int)- 要生成的样本数。
|
||||
- **shape** (tuple)- 样本的 shape,它必须是 (generate_nums, C, H, W) 或 (-1, C, H, W)。
|
||||
- **shape** (tuple)- 样本的 shape,它必须是 :math:`(generate_nums, C, H, W)` 或 :math:`(-1, C, H, W)`。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
@ -42,7 +42,7 @@ mindspore.nn.probability.dpn.VAE
|
|||
|
||||
**参数:**
|
||||
|
||||
- **x** (Tensor) - 要重构的输入 Tensor,shape 为 (N, C, H, W)。
|
||||
- **x** (Tensor) - 要重构的输入 Tensor,shape 为 :math:`(N, C, H, W)`。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.nn.probability.infer.ELBO
|
|||
|
||||
Evidence Lower Bound (ELBO) 网络。
|
||||
变分推断最小化了从变分分布到后验分布的 Kullback-Leibler (KL) 散度。
|
||||
它使 ELBO 最大化,这是观测值 log p(x) 的边际概率的对数的下限。ELBO 等于负 KL 散度直到一个加性常数。有关更多详细信息,请参阅
|
||||
它使 ELBO 最大化,这是观测值 log p(x) 的边际概率的对数的下限。ELBO 等于负 KL 散度加上一个附加常数。更多详细信息,请参阅
|
||||
`变分推理:统计学家评论 <https://arxiv.org/abs/1601.00670>`_。
|
||||
|
||||
**参数:**
|
||||
|
|
|
@ -3,9 +3,9 @@ mindspore.nn.probability.infer.SVI
|
|||
|
||||
.. py:class:: mindspore.nn.probability.infer.SVI(net_with_loss, optimizer)
|
||||
|
||||
随机变分推理(SVI)。
|
||||
随机变分推断(Stochastic Variational Inference)。
|
||||
|
||||
变分推理将推理问题转换为优化。隐藏变量上的一些分布由一组自由参数索引,这些参数经过优化以使分布最接近感兴趣的后验。有关更多详细信息,请参阅
|
||||
变分推断将推理问题转换为优化问题。隐藏变量上的一些分布由一组自由参数索引,这些参数经过优化,使分布成为最接近正确的后验分布。更多详细信息,请参阅
|
||||
`变分推理:统计学家评论 <https://arxiv.org/abs/1601.00670>`_。
|
||||
|
||||
**参数:**
|
||||
|
@ -17,7 +17,7 @@ mindspore.nn.probability.infer.SVI
|
|||
|
||||
**返回:**
|
||||
|
||||
numpy.dtype,训练后的损失。
|
||||
numpy.dtype,训练损失。
|
||||
|
||||
.. py:method:: run(train_dataset, epochs=10)
|
||||
|
||||
|
|
|
@ -3,7 +3,7 @@ mindspore.nn.probability.toolbox.UncertaintyEvaluation
|
|||
|
||||
.. py:class:: mindspore.nn.probability.toolbox.UncertaintyEvaluation(model, train_dataset, task_type, num_classes=None, epochs=1, epi_uncer_model_path=None, ale_uncer_model_path=None, save_model=False)
|
||||
|
||||
不确定性评估工具箱。
|
||||
包含数据不确定性和模型不确定性的评估工具箱。
|
||||
|
||||
**参数:**
|
||||
|
||||
|
@ -16,7 +16,7 @@ mindspore.nn.probability.toolbox.UncertaintyEvaluation
|
|||
- **epochs** (int) - 数据的迭代总数。默认值:1。
|
||||
- **epi_uncer_model_path** (str) - 认知不确定性模型的保存或读取路径。默认值:None。
|
||||
- **ale_uncer_model_path** (str) - 任意不确定性模型的保存或读取路径。默认值:None。
|
||||
- **save_model** (bool) - 是否保存不确定性模型,如果为 true,epi_uncer_model_path 和 ale_uncer_model_path 不能为 None。
|
||||
- **save_model** (bool) - 是否保存不确定性模型,如果为 true,`epi_uncer_model_path` 和 `ale_uncer_model_path` 不能为 None。
|
||||
如果为 false,则从不确定性模型的路径中加载要评估的模型;如果未给出路径,则不会保存或加载不确定性模型。默认值:false。
|
||||
|
||||
.. py:method:: eval_aleatoric_uncertainty(eval_data)
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.nn.probability.toolbox.VAEAnomalyDetection
|
|||
|
||||
使用 VAE 进行异常检测的工具箱。
|
||||
|
||||
变分自动编码器(VAE)可用于无监督异常检测。异常分数是 X 与重建 X 之间的误差。如果分数高,则 X 大多是异常值。
|
||||
变分自动编码器(VAE)可用于无监督异常检测。异常分数是 sample_x 与重建 sample_x 之间的误差。如果分数高,则 X 大多是异常值。
|
||||
|
||||
**参数:**
|
||||
|
||||
|
@ -25,7 +25,7 @@ mindspore.nn.probability.toolbox.VAEAnomalyDetection
|
|||
|
||||
**返回:**
|
||||
|
||||
bool值,样本是否为异常值。
|
||||
bool,样本是否为异常值。
|
||||
|
||||
.. py:method:: predict_outlier_score(sample_x)
|
||||
|
||||
|
|
|
@ -32,8 +32,8 @@ mindspore.nn.probability.transforms.TransformToBNN
|
|||
|
||||
**参数:**
|
||||
|
||||
- **get_dense_args** - 从 DNN 全连接层获得的参数。默认值:lambda dp:{"in_channels":dp.in_channels,"out_channels":dp.out_channels,"has_bias":dp.has_bias}。
|
||||
- **get_conv_args** - 从 DNN 卷积层获得的参数。默认值:lambda dp:{"in_channels":dp.in_channels,"out_channels":dp.out_channels,"pad_mode":dp.pad_mode,"kernel_size":dp.kernel_size,"stride”:dp.stride,"has_bias": dp.has_bias}。
|
||||
- **get_dense_args** - 从 DNN 全连接层获得的参数。默认值:lambda dp: {"in_channels": dp.in_channels, "has_bias": dp.has_bias, "out_channels": dp.out_channels, "activation": dp.activation}。
|
||||
- **get_conv_args** - 从 DNN 卷积层获得的参数。默认值:lambda dp: {"in_channels": dp.in_channels, "out_channels": dp.out_channels, "pad_mode": dp.pad_mode, "kernel_size": dp.kernel_size, "stride": dp.stride, "has_bias": dp.has_bias, "padding": dp.padding, "dilation": dp.dilation, "group": dp.group}。
|
||||
- **add_dense_args** (dict) - 添加到 BNN 全连接层的新参数。请注意, `add_dense_args` 中的参数不得与 `get_dense_args` 中的参数重复。默认值:None。
|
||||
- **add_conv_args** (dict) - 添加到 BNN 卷积层的新参数。请注意, `add_conv_args` 中的参数不得与 `get_conv_args` 中的参数重复。默认值:None。
|
||||
|
||||
|
|
Loading…
Reference in New Issue