我一直在阅读很多关于对抗性机器学习的文章,其中提到了“稳健机器学习的最佳实践”。
这方面的一个具体例子是在与对抗性机器学习相关的文章中提到“在高维数据中失去有效的鲁棒估计”。此外,IBM 有一个名为“IBM's Adversarial Robustness Toolbox”的 Github 存储库。此外,还有一个称为“稳健统计”的统计领域,但没有明确解释它与对抗性机器学习的关系。
因此,如果有人能解释在对抗性机器学习的背景下什么是鲁棒性,我将不胜感激。
我一直在阅读很多关于对抗性机器学习的文章,其中提到了“稳健机器学习的最佳实践”。
这方面的一个具体例子是在与对抗性机器学习相关的文章中提到“在高维数据中失去有效的鲁棒估计”。此外,IBM 有一个名为“IBM's Adversarial Robustness Toolbox”的 Github 存储库。此外,还有一个称为“稳健统计”的统计领域,但没有明确解释它与对抗性机器学习的关系。
因此,如果有人能解释在对抗性机器学习的背景下什么是鲁棒性,我将不胜感激。
强大的 ML 模型能够捕捉到能够很好地概括人类期望在现实世界中看到的各种微小变化的模式。
鲁棒模型是一种能够很好地从训练集泛化到测试或验证集的模型,但该术语也用于指代能够很好泛化到的模型,例如照片照明的变化、物体的旋转或引入少量随机噪声。
对抗性机器学习是寻找破坏原本看起来合理的模型的示例的过程。一个简单的例子是,如果我给你一个猫狗照片的数据集,其中猫总是戴着鲜红色的领结,你的模型可能会学会将领结与猫联系起来。如果我给它一张打着领结的狗的照片,你的模型可能会将它标记为猫。对抗性机器学习通常还包括识别特定噪声片段的能力,这些噪声可以添加到输入中以混淆模型。
因此,如果一个模型是健壮的,则基本上意味着很难找到该模型的对抗样本。通常这是因为模型学习了一些理想的相关性(例如,猫的口吻形状与狗不同),而不是不受欢迎的相关性(猫有领结;包含猫的图片比包含狗的图片蓝色多 0.025%;狗的图片有人类更频繁地出现在它们中;等等)。
像GAN这样的方法试图直接利用这个想法,通过在真实数据和对手设计的数据上训练模型来模拟真实数据。从这个意义上说,GAN 是一种尝试创建一个强大的鉴别器。