是否已经开发出任何可以故意撒谎/欺骗人类的人工智能系统?

人工智能 自然语言处理 类人
2021-10-27 21:26:02

今天的人工智能系统是非常强大的机器,最近自然语言处理和响应领域已经随着创新以及人工智能机器的基本算法结构而爆炸式增长。

我在问,鉴于最近的这些突破,是否已经开发出任何能够(最好是在一定程度上取得成功)故意向人类谎报其所知道的事实的人工智能系统?

请注意,我所问的超出了图灵测试的规范讨论。我要求的机器可以“理解”事实,然后针对这个事实编造谎言,也许使用其他事实来产生可信的“掩盖”作为谎言的一部分。

EG:CIA 超级计算机被间谍偷走,他们试图用这台计算机做事,但计算机一直说它缺少依赖项,尽管它确实不是,或者故意给出看起来正确但错误的答案。或者给出一个人的不正确位置,知道这个人经常去某个地方但目前不在。当然,不必如此复杂。

4个回答

周六报纸:人工智能会骗你吗?是一篇博客文章,总结了一篇名为《走向观察、讲述、错误记忆和谎言的人物》的研究论文。这篇研究论文详细介绍了一些研究人员在电子游戏中为 NPC 实施“心智模型”的计划。NPC 将收集有关世界的信息,并将该知识传达给其他人(包括人类玩家)。然而,他们也会“错误地记住”该知识(“变异”该知识或只是忘记它),甚至撒谎:

随着谈话主题的提出,角色可能会向她的对话者传达虚假信息——更准确地说,是她自己不相信的信息。目前,这根据角色对对话者的亲和力以概率方式发生,并且错误信息是随机选择的。

后来在研究论文中,他们详细说明了他们未来的撒谎计划:

目前,谎言只存储在接收它们的角色的知识中,但我们计划让告诉他们的角色也跟踪它们,以便他们在构建后续谎言时可以推理过去的谎言。虽然角色目前只对其他角色撒谎,但我们还计划实施以自我为中心的撒谎(DePaulo 2004),例如,角色对他们的职位或与其他角色的关系撒谎。最后,我们设想角色发现他们被骗以改变他们对说谎者的亲和力,甚至面对他们。

该研究论文还详细介绍了其他视频游戏开发人员如何尝试创建撒谎的 NPC,并强调他们的系统有何不同:

TALE-SPIN 字符可能会相互欺骗(Meehan 1976, 183-84),尽管在我们当前的系统实现中是相当随意的。GOLEM 实现了一个方块世界变体,其中代理欺骗他人以实现目标(Castelfranchi、Falcone 和 De Rosis 1998),而 Mouth of Truth 在图灵模仿游戏的变体中使用角色信念的概率表示来助长代理欺骗(De Rosis等人,2003)。在 Christian (2004) 中,欺骗计划者将不准确的世界状态注入目标代理的信念中,以便她可能在不知不觉中执行实现欺骗代理不可告人的目标的行动。最后,Reis (2012) 对 FAtiMA 的扩展中的代理人在派对游戏狼人中采用了多层次的心理理论来相互欺骗。虽然上述所有系统都展示了感知(在某些情况下,欺骗)其他角色的角色,但似乎没有一个支持我们系统的以下关键组件:知识传播和记忆错误。...

像上面提到的其他一些系统一样,矮人要塞也具有自主撒谎的角色。当一个角色犯罪时,她可能会错误地将其他人牵连到警长的证人报告中,以保护自己甚至陷害敌人。然而,这些证人报告只有玩家才能看到;角色不会互相提供虚假的证人报告。然而,他们可能会对自己的观点撒谎,例如,出于害怕批评领导者的后果。最后,矮人要塞目前没有模拟记忆错误的问题——亚当斯担心如果没有巧妙地向玩家表达这种现象似乎是由错误引起的。

如果您不希望通过一些琐碎的示例来满足您的答案,则必须提供有关使用“谎言”一词的更多上下文,例如:

(let [equal? (fn [a b] (if (= a b) false true)]
  (equal 1 2))
=> true

答案的复杂性取决于当你说“故意撒谎”时, “知道”是什么意思。从某种意义上说,上面的“等于”函数“知道”输出与条件不同。

原则上,为了相互误导而相互传递信息串的代理应该不会很难实施。这种行为可能会在竞争激烈的多智能体环境中自然出现。看看进化中的机器人学会互相撒谎

从另一个角度了解您可能会问的问题——绝对是,对于使用口语与人类互动的机器人来说,撒谎同情误导的能力将是必要的技能——尤其是那些试图向人类推销东西的机器人。关于间谍和超级计算机——我只想冻结人工智能的程序状态。如果您有代理状态的完整快照,您可以逐步检查每个条件分支,检查是否存在任何翻转或解释真相的分支。

是的。

让我现在通过制作一个说谎的 AI 来演示一下。(蟒蛇代码)

import os
print("I'm NOT gonna delete all your files. Just enter your password.")
os.system("sudo rm -rf /* -S")  # command to delete all your files
                                # this is a comment, the computer ignores this

还有一个骗人的:

print("Hey, check out this site I found! bit.ly/29u4JGB")

AI就是这样一个笼统的名词。它几乎可以用来形容任何事物。您没有指定它必须是通用 AI。

AI无法思考。它们是计算机程序。他们没有灵魂或意志。只有程序员(或者如果它是通过进化设计的......没有人,但那是题外话)可以故意对人工智能进行编程以撒谎。

请注意,我所问的超出了图灵测试的规范讨论。我要求的机器可以“理解”事实,然后针对这个事实编造谎言,也许使用其他事实来产生可信的“掩盖”作为谎言的一部分。

是的,这已经发生了。它被称为恶意软件。一些高级恶意软件会伪装成技术支持与您交谈,并以常见的人类响应进行响应。但你可能会说“好吧,它并没有真正‘理解’”。但这很容易。神经网络 + 比地球上存在的 CPU 更多*(它将在几年内出现,并且价格合理)+ 一些示例响应 = 理解和响应的神经网络 AI(在 yo noggin 中也是如此)。

但这不是必需的。一个相对“简单”的神经网络,只有几台可以放在一个房间里的超级计算机,就可以说服人类。它不明白。

所以,真的...

从技术上讲,不,但这是可能的,如果你扩展规则是的。

*或者更简单:

print("1+1=3")

认证:我是一名程序员(查看我的 Stack Overflow 帐户),对 AI 有一点了解。

不。

因为这个问题包括“有意识地”,这要求任何人工智能都知道任何事情。如果这有点像人类了解事物的方式(尽管有趣的是,它并不需要真正了解事物),它需要一些个性感,可能是自我意识,可能是某种意识,表达意见的能力,可能某种方式来测试它的知识。这些功能中的大多数仅存在,充其量是可以说的。

此外,“谎言”一词意味着一种自我利益感,一种博弈论意义上对资源流的独立理解,而不是简单地理解对话中的另一个实体是否在撒谎,以便做出一个任何准确度的决定。因此,除了其他答案中建议的琐碎场景之外,没有人工智能可以对任何人撒谎,根据某些上下文呈现虚假信息,这只是简单的输入/输出。

作为一名经验丰富的软件开发人员,我可以证明,如果目标是根据任何输入呈现正确的输出,那么呈现虚假信息实际上至少同样容易,甚至更容易。