You can not select more than 25 topics Topics must start with a chinese character,a letter or number, can include dashes ('-') and can be up to 35 characters long.

mindarmour.adv_robustness.defenses.rst 5.1 kB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107
  1. mindarmour.adv_robustness.defenses
  2. ==================================
  3. 该模块包括经典的防御算法,用于防御对抗样本,增强模型的安全性和可信性。
  4. .. py:class:: mindarmour.adv_robustness.defenses.NaturalAdversarialDefense(network, loss_fn=None, optimizer=None, bounds=(0.0, 1.0), replace_ratio=0.5, eps=0.1)
  5. 基于FGSM的对抗性训练。
  6. 参考文献:`A. Kurakin, et al., "Adversarial machine learning at scale," in ICLR, 2017. <https://arxiv.org/abs/1611.01236>`_ 。
  7. **参数:**
  8. - **network** (Cell) - 要防御的MindSpore网络。
  9. - **loss_fn** (Functions) - 损失函数。默认值:None。
  10. - **optimizer** (Cell):用于训练网络的优化器。默认值:None。
  11. - **bounds** (tuple) - 数据的上下界。以(clip_min, clip_max)的形式出现。默认值:(0.0, 1.0)。
  12. - **replace_ratio** (float) - 用对抗样本替换原始样本的比率。默认值:0.5。
  13. - **eps** (float) - 攻击方法(FGSM)的步长。默认值:0.1。
  14. .. py:class:: mindarmour.adv_robustness.defenses.EnsembleAdversarialDefense(network, attacks, loss_fn=None, optimizer=None, bounds=(0.0, 1.0), replace_ratio=0.5)
  15. 使用特定攻击方法列表和给定的对抗样本进行对抗训练,以增强模型的鲁棒性。
  16. **参数:**
  17. - **network** (Cell) - 要防御的MindSpore网络。
  18. - **attacks** (list[Attack]) - 攻击方法列表。
  19. - **loss_fn** (Functions) - 损失函数。默认值:None。
  20. - **optimizer** (Cell) - 用于训练网络的优化器。默认值:None。
  21. - **bounds** (tuple) - 数据的上下界。以(clip_min, clip_max)的形式出现。默认值:(0.0, 1.0)。
  22. - **replace_ratio** (float) - 用对抗性替换原始样本的比率,必须在0到1之间。默认值:0.5。
  23. **异常:**
  24. - **ValueError** - `bounds` 不在0和1之间。
  25. .. py:class:: mindarmour.adv_robustness.defenses.AdversarialDefenseWithAttacks(network, attacks, loss_fn=None, optimizer=None, bounds=(0.0, 1.0), replace_ratio=0.5)
  26. 利用特定的攻击方法和给定的对抗例子进行对抗训练,以增强模型的鲁棒性。
  27. **参数:**
  28. - **network** (Cell) - 要防御的MindSpore网络。
  29. - **attacks** (list[Attack]) - 攻击方法列表。
  30. - **loss_fn** (Functions) - 损失函数。默认值:None。
  31. - **optimizer** (Cell) - 用于训练网络的优化器。默认值:None。
  32. - **bounds** (tuple) - 数据的上下界。以(clip_min, clip_max)的形式出现。默认值:(0.0, 1.0)。
  33. - **replace_ratio** (float) - 用对抗性替换原始样本的比率,必须在0到1之间。默认值:0.5。
  34. **异常:**
  35. - **ValueError** - 替换比率不在0和1之间。
  36. .. py::method:: defense(inputs, labels)
  37. 通过使用从输入样本生成的对抗样本进行训练来增强模型。
  38. **参数:**
  39. - **inputs** (numpy.ndarray) - 输入样本。
  40. - **labels** (numpy.ndarray) - 输入样本的标签。
  41. **返回:**
  42. - **numpy.ndarray** - 对抗性防御操作的损失。
  43. .. py:class:: mindarmour.adv_robustness.defenses.AdversarialDefense(network, loss_fn=None, optimizer=None)
  44. 使用给定的对抗样本进行对抗训练。
  45. **参数:**
  46. - **network** (Cell) - 要防御的MindSpore网络。
  47. - **loss_fn** (Functions) - 损失函数。默认值:None。
  48. - **optimizer** (Cell) - 用于训练网络的优化器。默认值:None。
  49. .. py::method:: defense(inputs, labels)
  50. 通过使用输入样本进行训练来增强模型。
  51. **参数:**
  52. - **inputs** (numpy.ndarray) - 输入样本。
  53. - **labels** (numpy.ndarray) - 输入样本的标签。
  54. **返回:**
  55. - **numpy.ndarray** - 防御操作的损失。
  56. .. py:class:: mindarmour.adv_robustness.defenses.ProjectedAdversarialDefense(network, loss_fn=None, optimizer=None, bounds=(0.0, 1.0), replace_ratio=0.5, eps=0.3, eps_iter=0.1, nb_iter=5, norm_level='inf')
  57. 基于PGD的对抗性训练。
  58. 参考文献:`A. Madry, et al., "Towards deep learning models resistant to adversarial attacks," in ICLR, 2018. <https://arxiv.org/abs/1611.01236>`_ 。
  59. **参数:**
  60. - **network** (Cell) - 要防御的MindSpore网络。
  61. - **loss_fn** (Functions) - 损失函数。默认值:None。
  62. - **optimizer** (Cell) - 用于训练网络的优化器。默认值:None。
  63. - **bounds** (tuple) - 输入数据的上下界。以(clip_min, clip_max)的形式出现。默认值:(0.0, 1.0)。
  64. - **replace_ratio** (float) - 用对抗样本替换原始样本的比率。默认值:0.5。
  65. - **eps** (float) - PGD攻击参数epsilon。默认值:0.3。
  66. - **eps_iter** (int) - PGD攻击参数,内环epsilon。默认值:0.1。
  67. - **nb_iter** (int) - PGD攻击参数,迭代次数。默认值:5。
  68. - **norm_level** (Union[int, char, numpy.inf]) - 范数类型。可选值:1、2、np.inf、'l1'、'l2'、'np.inf' 或 'inf'。默认值:'inf'。

MindArmour关注AI的安全和隐私问题。致力于增强模型的安全可信、保护用户的数据隐私。主要包含3个模块:对抗样本鲁棒性模块、Fuzz Testing模块、隐私保护与评估模块。 对抗样本鲁棒性模块 对抗样本鲁棒性模块用于评估模型对于对抗样本的鲁棒性,并提供模型增强方法用于增强模型抗对抗样本攻击的能力,提升模型鲁棒性。对抗样本鲁棒性模块包含了4个子模块:对抗样本的生成、对抗样本的检测、模型防御、攻防评估。