在讨论 AI 时我应该使用拟人化语言吗?

人工智能 哲学
2021-11-12 23:06:09

英语不太适合谈论人工智能,这使得人类很难相互交流人工智能实际上在“做什么”。因此,使用“类人”术语来描述机器的行为可能更有意义,即使机器的内部特性与人类的内部特性并不相似。

拟人化语言在技术中被大量使用(参见黑客词典对拟人化的定义,它试图证明计算机程序员在描述技术时使用拟人化术语是合理的),但随着人工智能的不断进步,考虑权衡使用拟人化语言与技术受众和非技术受众进行交流。如果我们甚至无法描述我们在做什么,我们如何才能很好地掌握人工智能?

假设我想开发一个显示相关文章列表的算法。我可以通过两种方式向外行解释该算法的工作原理:

  1. 非常拟人化 - 算法读取网站上的所有文章,并显示与您正在查看的文章非常相似的文章。
  2. 非常技术性- 该算法将每篇文章转换为“词袋”,然后比较每篇文章的“词袋”以确定哪些文章共享最常见的词。分享包中单词最多的文章是显示给用户的文章。

显然,#2 可能比#1 更“技术上正确”。通过详细说明算法的实现,如果算法产生了我们非常不同意的输出,它可以让人们更容易理解如何修复算法。

但是#1 更易读、更优雅、更容易理解。它提供了算法在做什么的一般意义,而不是算法是如何做的。通过抽象出计算机如何“阅读”文章的实现细节,我们可以专注于在现实场景中使用算法。

因此,我应该更喜欢使用声明#1 所强调的拟人化语言吗?如果不是,为什么不呢?

PS:如果答案取决于我正在与之交谈的听众(非技术听众可能更喜欢#1,而技术听众可能更喜欢#2),那么也请告诉我。

3个回答

如果清晰是您的目标,您应该尝试避免拟人化语言 - 这样做有可能会误导您自己对程序的功能。

这是人工智能研究中的一个有害陷阱,在许多情况下,即使是经验丰富的研究人员也对程序的理解程度高于实际应得的程度。

Douglas Hofstadter 在题为“The Inerdicable Eliza Effect and Its Dangers”的一章中详细描述了这个问题, Drew McDermot 也有一篇著名的论文,题为“Artificial Intelligence meet natural 愚蠢”

因此,一般来说,人们应该特别努力避免人工智能中的拟人化。然而,当与非技术听众交谈时,“原声”描述(就像在任何复杂学科中一样)是可以接受的,前提是您让听众知道他们正在获得简化版本

你提到的问题不仅仅是一个人工智能问题,而是一个高度技术领域的问题。如有疑问,我总是建议使用简单的语言

然而,人工智能社区通常会避开人工智能的拟人化内涵还有另一个原因。一些 AI 名人经常喜欢警告我们,通用人工智能可能会以异乎寻常的方式行事,违背我们的人类期望,这可能会导致机器人世界末日。

然而,这种关于邪恶外星人 AGI 的想法源于人工智能社区中普遍存在的误解,该误解将两种不同的普遍性概念混为一谈:

  • 图灵机一般性,和
  • 人类领域的普遍性

普通人说一般性是后者的意思。甚至 AGI 的官方定义也取决于人类的情况:

...执行人类可以完成的任何智力任务。

但是按照这个定义,概括行为并不会让它变得更加陌生。概括就是拟人化。正如尼采所说,

“在你看到理想事物的地方,我看到了——人类,唉!一切都太人类了。”

我认为正确的答案是简单但无益的“视情况而定”。

即使在与其他技术人员交谈时,我也经常使用拟人化语言和隐喻。尤其是在谈话开始时。“计算机必须弄清楚……”“我们如何防止计算机对……感到困惑”等等。当然,我们可以用更技术上正确的方式来说明这一点。“我们需要修改算法,以减少数据不足导致的设置不准确的实例的数量和种类......”或类似的东西。但是在技术人员中,我们知道我们的意思,而且使用隐喻语言更容易。

在尝试解决技术性计算机问题时,我经常从一个模糊的拟人化概念开始。“我们应该列出文本中的所有单词,并根据每个单词出现的频率为每个单词分配一个权重。哦,但我们应该忽略短而常见的单词,比如‘the’和‘it’。然后让我们挑选一些词的数量,可能是十个左右,具有最大的权重......”所有这些都与计算机实际操作数据的方式相去甚远。但是通常先从“人类”的角度来考虑它,然后再弄清楚如何让计算机去做这件事要容易得多。

在与非技术观众交谈时,我认为问题在于,拟人化语言更容易理解,但也常常给人一种计算机比实际更像人类的印象。你只需要看科幻电影就可以看到,显然很多人认为计算机或机器人就像人一样思考,只是它非常精确,没有情感。