我们如何定义 AI 代理中的常识?

人工智能 人工智能设计 哲学 情商
2021-11-01 02:56:40

在我们的生活中,我们遇到不同的人,并根据他们在某种情况下的行为来描述他们的常识。例如,高度外向的人能够毫无尴尬地与人打交道。对他们来说,如何与人打交道是常识。但是,对于科学家来说,解决问题的方法可能是普通人看不到的常识。

我们如何定义 AI 代理中的常识?

3个回答

我定义与人类一致的“常识”,以连接到智能代理;

一种算法代理,它能够解决与人类感知环境和常见情况的方式相关的有效决策。

根据麦卡锡约翰的说法,

为解决常识而提出的第一个人工智能程序是Advice Taker

目前,常识是人工智能中未解决的问题。有关详细信息,请参阅 John McCarthy 的 具有常识的程序

我提出了一些想法,我认为这些想法对于激发机器学习模型的常识想法很有价值。

  • 常识是回顾性的。我们根据过去的(明智的)行为和条件来定义它,我们可以说某人基于他们的行为具有良好的常识,我们可以将其视为他们的历史行为和他们的明智程度的总和.

  • 仅凭行动不足以证明常识;产生这些行为的心智模型也很重要。为什么个人会采取这些明智的行动?他们的行为背后的推理是否也是明智的,或者他们只是运气好(换句话说,他们通常不明智的心理模型在某些情况下会产生明智的行为,而在大多数其他情况下会产生非理性的行为)?这暗示常识取决于行动本身的合理化。

  • 鉴于前者,常识取决于对可能行动的列举和根据情况选择正确的行动例如,我走在一条小路上,看到一只蜗牛。有哪些动作?我可以继续走,停下来欣赏一会儿,踩在它上面,或者吃掉它。如果我将蜗牛视为生物,前两个选项是明智的。如果我赶时间,第一个选择是明智的。如果我是一名探索大自然寻找新的潜在成分的厨师,第二个和第四个可能是明智的。第三种选择,如果我认为蜗牛是侵入性的。当在给定上下文的情况下,选择的行动是明智的并且我们可以直观地推理它们时,我们说某人具有常识。

我的猜测是,感知动作背后的直觉是你所追求的。我认为,最终,常识的直觉是由开发模型的人定义的,并且与模型的制定有关(例如,它的假设、目标函数等)。毕竟,常识是主观的和特定的上下文。

具体来说,如果开发人员将模型放入其中,则模型可以具有常识,我们可以使用推理方法来证明这一点。例如,在 Word2Vec 模型中,我们可能会看到ParisFrance并期望TokyoJapan. 为了询问这个问题,我们可能会做一些向量数学并发现ParisFrance+Tokyo=Japan. AI 模型如何以及是否会在两者之间建立更大的关联CapitalCountry然而,归结为开发人员如何构建和训练模型以概括他们自己的常识。

我的感觉是,常识往往是不言自明的。为了避免陷阱,可能还需要一定程度的智慧,因为公理可能并不适用于所有情况。[参见公理系统]

一个主要问题是科学经常证明直觉和“常识”经常导致错误的结论。尼尔·德格拉斯·泰森 (Neil Degrasse Tyson) 在他的《黑洞之死》一书中为公众介绍了这个主题

第 3 章,“眼见为实”,暗示了从太少的证据中进行概括的陷阱。它首先指出,虽然我们知道地球是圆的,但当人们只观察它的一小部分时,它看起来是平的。

一个非常著名的例子来自数学家亚伯拉罕沃尔德:

二战期间,Wald 是统计研究小组 (SRG) 的成员,在那里他将自己的统计技能应用于各种战时问题。这些包括顺序分析和抽样检验的方法。SRG 研究的问题之一是检查飞机的损坏分布,以提供有关如何最大限度地减少轰炸机对敌方火力造成的损失的建议。军方内部倾向于考虑为受到更多损坏的部件提供更大的保护,但沃尔德假设损坏必须更均匀地分布,并且确实返回或出现在样品中的飞机受到了较不脆弱的部件的撞击. 沃尔德指出,这项研究只考虑了在任务中幸存下来的飞机——被击落的轰炸机并没有参加损害评估。因此,返航飞机上的孔洞代表轰炸机可能受到伤害但仍能安全返回家园的区域。沃尔德建议海军改为加强返回飞机毫发无损的区域,因为这些区域如果被击中,会导致飞机失联。
资料来源:亚伯拉罕沃尔德(维基)

我的感觉是,“置信度”可能是推动算法“常识”的主要技术,特别是算法正在质疑它的假设。