是否有针对人工智能系统的攻击发展的研究?
例如,有没有办法生成一个字母“A”,这个世界上的每个人都可以识别,但是如果将它显示给最先进的字符识别系统,这个系统将无法识别它? 或者每个人都可以轻松识别但在最先进的语音识别系统上会失败的语音音频。
如果存在这样的东西,这项技术是基于理论的科学(数学证明)还是实验科学(随机添加不同类型的噪声并输入 AI 系统,看看它是如何工作的)?我在哪里可以找到这样的材料?
是否有针对人工智能系统的攻击发展的研究?
例如,有没有办法生成一个字母“A”,这个世界上的每个人都可以识别,但是如果将它显示给最先进的字符识别系统,这个系统将无法识别它? 或者每个人都可以轻松识别但在最先进的语音识别系统上会失败的语音音频。
如果存在这样的东西,这项技术是基于理论的科学(数学证明)还是实验科学(随机添加不同类型的噪声并输入 AI 系统,看看它是如何工作的)?我在哪里可以找到这样的材料?
是的,关于这个话题有一些研究,可以称为对抗性机器学习,它更像是一个实验领域。
对抗样本是类似于用于训练模型的输入,但会导致模型产生意想不到的结果。例如,考虑一个经过训练以区分橙子和苹果的人工神经网络 (ANN)。然后给你一张苹果的图像,类似于用于训练 ANN 的另一张图像,但有点模糊。然后你将它传递给 ANN,它出乎意料地预测对象是橙色的。
几种机器学习和优化方法已被用于检测机器学习模型的边界行为,即在给定两个稍微不同的输入(但对应于同一对象)的情况下产生不同结果的模型的意外行为。例如,进化算法已被用于开发自动驾驶汽车的测试。例如,参见Alessio Gambi 等人的基于搜索的程序内容生成自动测试自动驾驶汽车(2019)。
有时,如果发现人工智能识别字符的规则,如果人类识别相同字符的规则不同,就有可能设计出人类识别但人工智能不识别的字符. 但是,如果人类和 AI 都使用相同的规则,它们将同样好地识别相同的字符。
我建议的一个学生曾经训练过一个神经网络来识别一组数字,然后使用遗传算法来改变数字的形状和连接性,这样人类仍然可以识别它们,但神经网络却不能。当然,如果他随后使用扩展的数字集重新训练神经网络,它可能能够识别新的数字。
是的,例如,其中描述了一个像素攻击
苏,J。巴尔加斯,DV;Kouichi, S. 一种用于欺骗深度神经网络的像素攻击。arXiv:1710.08864
一像素攻击是改变输入图像中的一个像素会强烈影响结果的攻击。
这是一个例子:
在他最近出版的《秋天》一书中,斯蒂芬森写到了智能眼镜,它在面部特征上投射出一种图案来衬托识别算法(这似乎不仅可行,而且很有可能;)
这是我们的赞助商Adversarial AI 的一篇文章:随着新攻击向量的开放,研究人员旨在防御它,其中包括“ AI 黑客攻击可能导致现实世界问题的五种方式”的图表。
这篇文章引用了关于人工智能的恶意使用:预测、预防和缓解的会议,您可以在其中下载完整的报告。
我假设现实世界中存在许多这样的例子,并且会在我找到它们时修改这个基于链接的答案。好问题!