“智能”的最一般定义是什么?

人工智能 定义 智力
2021-11-01 20:38:39

当我们谈论人工智能、人类智能或任何其他形式的智能时,一般意义上的智能一词是什么意思?什么叫聪明,什么叫不聪明?换句话说,我们如何以最一般的方式定义智能一词?

4个回答

我将通过指出比我聪明得多的人已经详细地处理了这个主题来作为这个答案的序言。也就是说,据我所知:

当我们谈论智力时,我们指的是与问题相关的解决问题的力量,相对于其他智力的力量。

这是一个有点博弈论的概念,与理性理性主体的概念有关。以这种方式看待情报可能是不可避免的。具体来说,我们可以将智能定义为理解问题或解决方案或抽象概念的能力,但如果不对其进行测试,我们就无法验证这种理解。 (例如,我可能相信我掌握了一种数学技术,但确定该信念是真实还是虚幻的唯一方法是利用该技术并评估结果。)

国际象棋和围棋等游戏被用作里程碑的原因,除了人类长期以来对游戏的兴趣之外,还在于它们为模型提供了简单、完全可定义的参数,并且至少在围棋的情况下,具有类似于自然的复杂性,我的意思是unsolvable / intractable(与井字游戏的强度相比,这是很容易解决的。)

但是,我们应该考虑在这个关于图灵测试的问题的简明答案中提出的一点

“...... [智能] 是纯粹由环境中的行为定义的,还是由达到该行为的机制定义的?”

这很重要,因为谷歌刚刚将数据中心冷却的控制权交给了人工智能这里明明是机制本身才表现出效用,但如果说机制是智能的,智能要有意义,还是要与“智能如何”抗衡。(以什么方式智能?)如果我们想知道“有多智能?” (它的效用程度)我们仍然需要根据其他机制的性能来评估它的性能。

(以谷歌控制空调的自动机为例,我们可以说它比以前的控制系统更智能,而且智能多少。)

因为我们开始谈论更多的“广义智能”,在这里定义为可以应用于一组问题的机制,(我将极小极大作为“公理智能”的一种形式,将机器学习作为“自适应智能”的一种形式),扩展和澄清定义可能是值得的:

智力是一种机制相对于一个问题或一组问题的解决问题的强度,相对于其他机制的强度。

或者,如果我们想要简洁:

智力就像智力一样(以及有多好。)

多年来,很多人都试图给智能下定义,所以对智能的定义也有很多,但大多都没有正式化。有关大量定义的信息,请参阅 Shane Legg 和 Marcus Hutter 的论文A Collection of Definitions of Intelligence (2007)。

为了正式定义智能,使其包含所有形式的智能,在论文Universal Intelligence: A Definition of Machine Intelligence (2007) 中,Legg 和 Hutter 在研究了之前给出的智能定义后,定义了智能如下

智能衡量智能在各种环境中实现目标的能力

这个定义显然有利于能够解决更多任务(即AGI)的系统,而不是只能解决特定任务(即窄 AI)的系统,但是,根据 Legg 和 Hutter 的说法,它应该总结前面的要点给定智力的定义,所以它应该是一个合理且相当笼统的智力定义。此外,与智力相关的属性,如学习能力,应该是涌现出来的,也就是说,为了在广泛的环境中实现目标,你还需要学习能力。

在我的博客文章On the definition of intelligence中,我也谈到了这个定义,但如果您对所有细节感兴趣,我建议您阅读上述论文。Marcus Hutter 的这段视频也很有用和有趣。

这是人工智能研究领域的一个重要问题——也许是最重要的问题我的意思是,如果人工智能是科学,那么它的实验将是可以通过经验检验的。必须有一种方法来决定通过或失败。那么智力测试有哪些呢?在你设计一个测试之前,你需要清楚地知道什么是智能,否则你怎么能设计一个能胜任的测试呢?

当然,我参与了名为“建造防水潜艇”的研发项目,当然,我完全相信我的潜艇是防水的,但我不知道如何测试它是否防水,因为我不知道“水密”是什么意思。这整个想法是荒谬的。但是问人工智能“智能”是什么意思。经分析,您得到的答案与潜艇示例几乎相同。

基本答案 - 行为

“智能”这个词(想法、概念)通常是由人工智能根据行为来定义的。即图灵测试方法。如果机器的行为方式与人类的行为方式相同,那么机器就是智能的,那么就可以说人类正在执行需要人类智能的动作。

问题 1:自动演奏钢琴是智能的。演奏斯科特·乔普林的曲子显然需要人类的智慧。

问题 2如果一台机器通过了测试,它只表明机器对于测试的行为是“智能的”。未经测试的行为怎么办?这实际上是当今自动驾驶汽车 AI 控制系统的生死攸关的问题。人工智能系统擅长在特定环境中驾驶汽车(这显然需要人类智能),例如具有清晰车道、没有急转弯以及分隔两个方向的中间屏障的高速公路。但是系统在“边缘情况”——不​​寻常的情况下会出现灾难性的错误。

问题 3谁会把他们的孩子放在一辆由通过了驾驶校车图灵测试的机器人驱动的校车上?当带电的电力线穿过马路时,风暴会怎样?还是远处的龙卷风正朝这边来?还有一千种未经检验的可能性呢?负责任的父母会想知道 (a) 人类智能的内部过程和结构的原则是什么,以及 (b) 数字总线驱动程序具有足够相似的内部过程和结构——即,不是行为,而是正确的内部元素,正确的内因。

期望的答案——内在原则

我想知道机器正在运行正确的内部进程,并且它正在正确的内部(内存)结构上运行这些进程(算法)。问题是,似乎没有人知道人类智能的正确内部过程和结构是什么。(可以肯定的是一个巨大的问题——但它并没有阻碍人工智能——或自动驾驶系统开发人员——一点点。)这意味着人工智能现在应该做的是弄清楚内部过程是什么和人类智能的结构。但它并没有这样做——而是将其有缺陷的技术商业化。

定义的要素 – 1. 概括

我们确实知道一些关于人类智能的事情。有些测试确实可以测试机器是否具有人类思维的某些特性。这些属性之一是泛化。他 1950 年的论文中,图灵作为一种玩笑,给出了一个非常好的会话概括的例子:(证人就是机器。)

审问者:在你十四行诗的第一行,“我可以把你比作夏日”,难道“春日”不是更好或更好吗?

证人:它不会扫描。

审问者:“冬天的一天”怎么样?这样可以扫描。

证人:是的,但没有人愿意被比作冬日。

审问者:你会说匹克威克先生让你想起了圣诞节吗?

证人:在某种程度上。

审讯者:然而圣诞节是冬天的一天,我认为匹克威克先生不会介意这种比较。

证人:我不认为你是认真的。冬天的剥皮是指典型的冬日,而不是像圣诞节这样的特殊日子。

当前的人工智能没有任何东西可以像这样进行概括。无法概括被认为可能是当前人工智能最大的失败。概括的能力将是“智力”充分定义的一部分。但是需要说明什么是泛化。

泛化问题也是对人工智能理论的几个严重哲学反对的背后,包括框架问题常识问题和组合爆炸问题。

定义的要素 – 2. 感知

感官知觉显然是人类学习和智力的基础。数据(以某种形式)由人类感官发出,然后由中央系统处理。在计算机中,二进制值离开数字传感器并传送到机器。然而,这些值本身并没有表明所感知的内容。然而,计算机得到的唯一东西是二进制值。机器怎么会知道感应到了什么?经典的中国房间争论问题。)

因此,类人智能的另一个要素是以类人方式感知的能力。“类人方式”在这里的意思是机器使用与人类感知相同的原理处理感官输入。问题是似乎没有人知道如何从数字传感器(或有机感官)发出的数据中构建语义(知识)。但是,类人感知仍然需要成为“智能”充分定义的一个要素。

一旦 AI 解决了这两个问题——泛化和感知——那么它可能会,希望,能够很好地实现其近 70 年前的最初目标——制造具有(或可以获得)类人的机器一般智力。也许概括原则和感知原则是一回事。也许实际上只有一个原则。不应假设答案很复杂。有时,最难理解的东西是最简单的。

所以“当我们说‘智能’是什么意思?”这个问题对人工智能来说真的很重要。结论是人工智能应该用一个包含泛化和感知的人类元素的定义来取代它目前对“智能”的行为定义。然后继续尝试找出这两者的操作原则或原则。

智力是将各种概念和关联编织成一个有意义的整体的能力;从个人知识和经验中适当地过滤、添加和拒绝各种想法。然后将这些想法有效地反映给提问者以确认理解和理解,从而使对话有效地朝着互利的结论前进。