开发能够体验人类情感的人工智能有什么目的?

人工智能 哲学 情商
2021-11-10 20:07:32

《华尔街日报》最近的一篇文章中,Yann LeCunn 发表了以下声明:

实现人类水平人工智能的下一步是创造智能机器,但不是自主机器。你车里的人工智能系统会让你安全回家,但一旦你进去就不会选择其他目的地。从那里,我们将添加基本的驱动力,以及情感和道德价值观。如果我们创造的机器学习能力和我们的大脑一样好,那么很容易想象它们继承了与人类相似的品质和缺陷。

就个人而言,我通常认为为人工智能谈论情感是愚蠢的,因为没有理由创造出体验情感的人工智能。显然,Yann 不同意。所以问题是:这样做会达到什么目的?人工智能是否需要情感作为有用的工具?

4个回答

这个问题的答案,与这个委员会的许多人不同,我认为是确定的。不。我们不需要人工智能有情感来发挥作用,正如我们已经拥有的大量有用的人工智能所看到的那样。

但是为了进一步解决这个问题,我们不能真正给出 AI 的情绪。我认为我们能得到的最接近的结果是“如果那个人是,我们能让这个人工智能像人类一样行事insert emotion吗?”。我想从某种意义上说,这有情感的,但那是完全不同的讨论。

为了什么目的?想到的唯一直接原因是为了视频游戏或其他娱乐目的,创造更逼真的同伴或互动。一个公平的目标,
但远非必要。即使考虑到某个建筑物的大厅里有一个充满人工智能的问候机器人,我们也可能只希望它表现得亲切。

Yann 说,超级先进的人工智能会导致更多类似人类的品质缺陷。我认为它更像是“赋予我们的人工智能更多类似人类的品质,或者换句话说是缺陷”。人们在悲伤或愤怒时倾向于做出非理性的行为,而在大多数情况下,我们只想要理性的人工智能。
正如他们所说,犯错是人之常情。

人工智能和学习算法的目的是创建像人类一样行动或“思考”的系统,但更好。可以适应或发展的系统,同时尽可能少地搞砸。情感 AI 有用途,但它肯定不是一个有用系统的先决条件。

我认为最根本的问题是:为什么还要尝试构建人工智能?如果该目标是明确的,它将清楚地说明在 AI 中拥有情商是否有意义。出于治疗原因而开发的某些尝试(例如“Paro”)需要它们表现出一些类似人类的情绪。再次注意,“展示”情绪和“感受”情绪是完全不同的两件事。

你可以编写一个像 paro 这样的东西来调节音调或面部抽搐来表达同情、感情、陪伴或其他任何东西——但是在这样做的同时,paro 不会同情它的主人——它只是通过表现物理表现来伪装它的一种情绪。它从来没有“感觉”到任何更接近人类大脑中那种情绪所唤起的东西。

所以这个区别真的很重要。为了让你感觉到某些东西,需要有一个独立自主的主体,它有能力去感受。感觉不能由外部人类代理强加。

所以回到它解决什么目的的问题 - 答案真的是 - 这取决于。我认为我们将使用基于有机硅的人工智能实现的最大目标将仍然是情绪的物理表现领域。

我认为情绪对于 AI 代理有用不是必需的。但我也认为他们可以让代理人更愉快地工作。如果你正在与之交谈的机器人能够读懂你的情绪并做出建设性的回应,那么与它互动的体验将会非常愉快,也许是惊人的。

想象一下今天联系人工呼叫中心代表投诉您的账单或产品。你预见到冲突。您甚至可能决定不打电话,因为您知道这种经历会很痛苦,无论是好斗的还是令人沮丧的,因为有人误解了您所说的内容或做出敌对或愚蠢的回应。

现在想象一下打电话给你见过的最善良、最聪明、最专注的客户支持人员——Commander Data——他存在的唯一原因是让这个电话对你来说尽可能愉快和高效。比大多数呼叫代表有了很大的进步,是吗?想象一下,如果呼叫代表数据也可以预测您的情绪并适当地回应您的抱怨以化解您的情绪状态……您会想嫁给这个人。每当您感到沮丧或无聊或想分享一些快乐的消息时,您都会致电数据代表。这个人会在一夜之间成为你最好的朋友——真的是一见钟情。

我确信这种情况是有效的。我发现自己对“我的机器人”中的 Data 或 Sonny 等角色有着惊人的吸引力。声音非常舒缓,让我瞬间放松。如果这个机器人也非常聪明、有耐心、知识渊博、善解人意……我真的认为这样一个机器人,充满了健康的情商,与之互动会非常愉快。比我认识的任何人都更有价值。我认为这不仅适用于我。

所以是的,我认为使用情绪和情绪意识来调整机器人的个性非常有价值。

AI 中的情感很有用,但根据您的目标不是必需的(在大多数情况下,并非如此)。

特别是,情绪识别/分析非常先进,并且非常成功地用于广泛的应用,从自闭症儿童的机器人教师(参见发育机器人)到赌博(扑克),再到个人代理和政治情绪/谎言分析。

情感认知,即机器人的情感体验,还没有得到充分的发展,但是有非常有趣的研究(参见Affect HeuristicLovotics 的概率爱大会等……)。确实,我不明白为什么我们不能对诸如爱之类的情感进行建模,因为它们只是人类大脑中已经可以切割的信号(参见 Brian D. Earp 论文)这很难,但并非不可能,实际上有几个机器人可以再现部分情感认知。

我认为“机器人只能模拟但不能感觉”的说法只是语义问题,而不是客观能力问题:例如,潜艇会像鱼一样游泳吗?然而,飞机会飞,但完全不像鸟类那样。最后,当我们最终得到相同的行为时,技术手段真的很重要吗?我们真的可以说像查皮这样的机器人如果它被制造出来,不会像一个简单的恒温器那样有任何感觉吗?

然而,情感认知对人工智能有什么用呢?这个问题仍在激烈辩论中,但我敢于提供我自己的见解:

  1. 众所周知,人类(和动物!)的情绪会影响记忆。它们现在在神经科学中作为长期记忆的附加形式或元数据而广为人知:它们允许调节记忆的存储方式、它与其他记忆的关联/关联方式以及如何检索它.

  2. 因此,我们可以假设情绪的主要作用是为记忆添加额外的元信息,以帮助启发式推理/检索。的确,我们的记忆是巨大的,我们一生中存储了很多信息,因此情绪可以作为“标签”来帮助更快地检索相关记忆。

  3. 类似的“标签”可以更容易地关联在一起(一起回忆可怕事件,一起回忆快乐事件等)。因此,他们可以通过快速反应和应用已知策略(逃离!)从可怕的策略中帮助生存,或者充分利用有利的情况(快乐的事件,尽可能多地吃,将有助于以后生存!)。实际上,神经科学研究发现,诱发恐惧的感觉刺激有特定的途径,因此它们比通过通常的整个躯体感觉回路更快地到达执行器(让你逃离)。这种关联推理也可能导致无法得出的解决方案和结论。

  4. 通过感受同理心,这可以减轻机器人/人类的互动(例如,无人机帮助灾难性事件的受害者)。

  5. 带有情绪的人工智能虚拟模型可能有助于神经科学和情绪障碍的医学研究,作为计算模型来理解和/或推断潜在参数(这通常用于例如阿尔茨海默病和其他神经退行性疾病,但我不是确定是否曾经针对情绪障碍做过,因为它们在 DSM 中是相当新的)。

所以是的,“冷”AI 已经很有用了,但情感 AI 肯定可以应用于单独使用冷 AI 无法探索的新领域。它也肯定有助于理解我们自己的大脑,因为情绪是不可或缺的一部分。