人工智能应用程序会被黑客入侵吗?

人工智能 人工智能安全 人工智能安全 对抗性毫升
2021-10-24 05:39:51

人工智能(或机器学习)应用程序或代理是否会被黑客入侵,因为它们是软件应用程序,还是所有人工智能应用程序都是安全的?

2个回答

要回答您的问题,这实际上取决于人工智能程序的目的。

例如,4Chan 已经入侵了许多“人工智能”机器人,其中最著名的是微软的 Twitter 机器人 Tay。该机器人的一般目的是解析推特上的内容,并在每次互动中学习和发展。

在 24 小时内,4Chan 通过教它种族主义和性别歧视的术语、具有讽刺意味的模因、将其发送到垃圾帖推文以及以其他方式试图改变其输出,以至于微软不得不将其删除,从而使 Tay 无法修复。

现在,Tay 的缺陷在于它接受任何输入,并且完全从中学习,没有开发人员的任何交互。其他机器人具有类似的功能,但它们进行了检查,需要人工干预来确定要学习的“质量”信息是什么,要学习的信息是什么“坏”信息,以免污染机器人的全球知识库。

这些只是人工智能如何被“黑客攻击”的两个例子,但最终归结为程序的实施方式。

您在其中一条评论中提到了 Siri 等手机人工智能,以及这项技术是否可以被黑客入侵。答案是——不是真的。

Siri 根据她的全球互动进行学习 - 允许有限的用户输入。您可以询问 Siri 如何发音。当她发音不正确时,您可以对她说“Siri 这就是您现在的发音方式”。她会为你提供一组有限的选项来说明你如何发音这个名字,你必须选择哪个选项听起来最好。

没有选项允许用户向 Siri 提供“坏”信息,因为她已经为你填充了结果,你必须根据她的选项列表来教她。为了给 Siri 提供错误的输入,你必须访问 Siri 的全球学习基地,我们无法访问,并改变她在程序中接受人机交互的方式——由于 iPhone 中的移动部件太多,这永远不会发生更新过程,并且会在您能够部署更新之前被捕获。

一切都可以被黑客入侵。人工智能找到的解决方案可能比人类解决方案更有效,但它们也可能会因为我们的大脑拥有的多样性和无限性而感到困惑。

人工智能模型为我们带来了更安全的解决方案,但当我们谈论信息安全时,没有什么是 100% 安全的。有很多方法可以提高安全性,阻止入侵和攻击,但每个系统都有缺陷。

也许,在未来(我的想象)我们将拥有超越人类的人工超级智能,这可能是入侵历史的最大挑战之一,但在那之前......只是我的想象。