智能代理可以有个性和情感吗?

人工智能 聊天机器人 智能代理 类人 情商 本体论
2021-10-31 12:57:00

给定正确定义的本体,智能代理(和聊天机器人)能否具有个性和情感?

1个回答

这取决于你如何定义“情感”和“个性”:

  1. 性格

维基百科将人格定义为“从生物和环境因素演变而来的一组特征性行为、认知和情感模式”。 (这是我们可以使用的有用的定义。)

由于智能代理做出决策(采取行动),因此可以肯定地说它们具有一组行为。认知在这里也很容易——不管算法的结构如何,我们可以说它利用了一个服务于认知功能的逻辑过程。

感情更难。

  1. 情绪

人类情感究竟是如何运作的仍然部分模糊不清,似乎可以肯定的是涉及化学物质。但是,在还原论的意义上,回到古希腊哲学,我们可以使用二元“爱/恨”(吸引/排斥)并普遍应用,其中这些感觉是自然力量的主要动力:

赫西奥德说,“首先是混沌制造,然后是/宽体地球。. . 和爱,不朽的生命中最重要的”,因此暗示世界上必须有某种原因来推动事物并将它们结合起来。

亚里士多德(形而上学1.984b

真正的问题在于对涉及意识的情感的解释,例如在维基百科上,但即使是维基也立即发出免责声明:“科学话语已经转向其他含义,并且没有就定义达成共识”,因此它可能更有用从进化的角度来看植根于认知和假定的情绪效用的定义。

如果使用强化学习,可以说自动机喜欢/不喜欢(喜欢/讨厌)某些结果,这可以通过奖励函数等方法来表达。

当然,这不是我们人类所理解的情感,但它可以被看作是一种类比。(关于人类对实体/对象和事件/结果的化学反应,以加强未来的决策。)

回答:

当代的机器人和代理绝不会有人类意义上的个性和情感——我们可能仍然非常远离这一点,甚至不知道这是否可能。无论系统看起来有多有意识,都可能永远无法验证人工意识。

但是,根据我们如何定义“人格”和“情感”这些术语,我们可以选择将自动机视为具有某种简化形式的类似品质和功能。

示例:如果我设计了一个游戏 AI,使其具有与其他代理(低风险容忍、合作、防御)不同的某些倾向和行为(高风险容忍度、党派、攻击性),那么这些代理通常被称为有个性。

示例:我们实际上确实使用了诸如“好/坏”之类的术语,并非正式地将自动机称为图中的“喜欢”或“不喜欢”节点。这是拟人化的功能。(你是否认为这些不仅仅是类比取决于感觉的定义,但一般来说,需要有一些感觉。所以你还需要将意识/意识降低到简单的“接收输入”的最基本要求。)