Browse Source

modify some api_doc error

tags/v1.8.0
huodagu 3 years ago
parent
commit
747e6c82d1
3 changed files with 4 additions and 4 deletions
  1. +1
    -1
      docs/api/api_python/mindarmour.adv_robustness.attacks.rst
  2. +1
    -1
      docs/api/api_python/mindarmour.privacy.diff_privacy.rst
  3. +2
    -2
      docs/api/api_python/mindarmour.rst

+ 1
- 1
docs/api/api_python/mindarmour.adv_robustness.attacks.rst View File

@@ -478,7 +478,7 @@ mindarmour.adv_robustness.attacks

- **target_images** (numpy.ndarray) - 目标图像。

.. py:class:: mindarmour.adv_robustness.attacks.NES(model, scene, max_queries=10000, top_k=-1, num_class=10, batch_size=128, epsilon=0.3, samples_per_draw=128, momentum=0.9, learning_rate=1e-3, max_lr=0.05, min_lr=5e-4, sigma=1e-3, plateau_length=20, plateau_drop=2.0, adv_thresh=0.25, zero_iters=10, starting_eps=1.0, starting_delta_eps=0.5, label_only_sigma=0.001, conservative=2, sparse=True)
.. py:class:: mindarmour.adv_robustness.attacks.NES(model, scene, max_queries=10000, top_k=-1, num_class=10, batch_size=128, epsilon=0.3, samples_per_draw=128, momentum=0.9, learning_rate=1e-3, max_lr=5e-2, min_lr=5e-4, sigma=1e-3, plateau_length=20, plateau_drop=2.0, adv_thresh=0.25, zero_iters=10, starting_eps=1.0, starting_delta_eps=0.5, label_only_sigma=1e-3, conservative=2, sparse=True)

该类是自然进化策略(Natural Evolutionary Strategies,NES)攻击法的实现。NES使用自然进化策略来估计梯度,以提高查询效率。NES包括三个设置:Query-Limited设置、Partial-Information置和Label-Only设置。在query-limit设置中,攻击对目标模型的查询数量有限,但可以访问所有类的概率。在partial-info设置中,攻击仅有权访问top-k类的概率。
在label-only设置中,攻击只能访问按其预测概率排序的k个推断标签列表。在Partial-Information设置和Label-Only设置中,NES会进行目标攻击,因此用户需要使用set_target_images方法来设置目标类的目标图像。


+ 1
- 1
docs/api/api_python/mindarmour.privacy.diff_privacy.rst View File

@@ -198,7 +198,7 @@ mindarmour.privacy.diff_privacy

- **run_context** (RunContext) - 包含模型的一些信息。

.. py:class:: mindarmour.privacy.diff_privacy.ZCDPMonitor(num_samples, batch_size, initial_noise_multiplier=1.5, max_eps=10.0, target_delta=0.001, noise_decay_mode='Time', noise_decay_rate=0.0006, per_print_times=50, dataset_sink_mode=False)
.. py:class:: mindarmour.privacy.diff_privacy.ZCDPMonitor(num_samples, batch_size, initial_noise_multiplier=1.5, max_eps=10.0, target_delta=1e-3, noise_decay_mode='Time', noise_decay_rate=6e-4, per_print_times=50, dataset_sink_mode=False)

基于零集中差分隐私(zCDP)理论,计算DP训练的隐私预算。根据下面的参考文献,如果随机化机制满足ρ-zCDP机制,它也满足传统的差分隐私(ε, δ),如下所示:



+ 2
- 2
docs/api/api_python/mindarmour.rst View File

@@ -229,7 +229,7 @@ MindArmour是MindSpore的工具箱,用于增强模型可信,实现隐私保

- **micro_batches** (int) - 从原始批次拆分的小批次数。默认值:2。
- **norm_bound** (float) - 用于剪裁绑定,如果设置为1,将返回原始数据。默认值:1.0。
- **norm_mech** (float) - 对象可以生成不同类型的噪音。默认值:None。
- **noise_mech** (float) - 对象可以生成不同类型的噪音。默认值:None。
- **clip_mech** (Mechanisms) - 该对象用于更新自适应剪裁。默认值:None。

**异常:**
@@ -281,7 +281,7 @@ MindArmour是MindSpore的工具箱,用于增强模型可信,实现隐私保

- **dataset_train** (minspore.dataset) - 目标模型的训练数据集。
- **dataset_test** (minspore.dataset) - 目标模型的测试集。
- **attack_config** (Union[list, tuple]) - 攻击模型的参数设置。格式为
- **attack_config** (Union[list, tuple]) - 攻击模型的参数设置。格式为:
.. code-block::

attack_config =


Loading…
Cancel
Save