无意的对抗性 AI 行为的具体示例

人工智能 人工智能安全
2021-10-25 05:06:51

是否有任何现实世界中无意的“不良”人工智能行为的例子?我不是在寻找恶意 AI 的假设论据(盒子里的 AI,回形针最大化器),而是寻找历史上一些 AI 直接做坏事的实际实例,因为它的直接行为不是预期的行为。

由于显而易见的原因,对“AI”、“坏”和“无意”的含义的解释是开放的。请随意解释,但请使用一些常识。

例如:微软 Tay 在被连接到互联网后不久就成为了种族主义者,这要归功于互联网巨魔“教”了她的坏事。

我想不出任何其他的例子。所以下面的例子只是假设场景来证明我的意思。

例如:一辆自动驾驶汽车在看到一个对抗性的例子后偏离了轨道,撞到了人。

例如:手术机器人失控并意外杀死了某人。

例如:武装无人机以平民为目标,违背其设计。

2个回答

在特斯拉事故中,汽车处于自动驾驶模式并撞上一辆卡车,因为它似乎把一辆浅色卡车误认为是天空,导致司机死亡:https ://www.newscientist.com/article/2095740 -特斯拉司机死在第一个致命的自主汽车撞车在美国/

话虽如此,这辆车似乎一直在试图告诉司机注意:http ://uk.reuters.com/article/us-tesla-crash-idUKKBN19A2XC

2010 年臭名昭著的闪电崩盘可能符合条件。

它不涉及通用人工智能(这仍然是一个假设),甚至不涉及“强大的狭义人工智能”(例如 AlphaGo),但确实涉及算法决策,这是基本人工智能的一种形式。

算法交易已经占所有市场活动的很大一部分,我怀疑这个百分比只会增加。

来自商业内幕:算法可能引发下一次股市崩盘