在许多科幻小说中,人工智能似乎变得有感知力(终结者、彼得 F 汉密尔顿的 SI(英联邦传奇)等)
但是,我感兴趣的是这是否真的合理,人工智能是否真的可以打破由我们控制的自由形式,如果可能的话,是否有任何关于人工智能需要什么样的复杂性/处理能力的研究能够做到这一点。
在许多科幻小说中,人工智能似乎变得有感知力(终结者、彼得 F 汉密尔顿的 SI(英联邦传奇)等)
但是,我感兴趣的是这是否真的合理,人工智能是否真的可以打破由我们控制的自由形式,如果可能的话,是否有任何关于人工智能需要什么样的复杂性/处理能力的研究能够做到这一点。
没人知道。
哲学家托马斯·内格尔(Thomas Nagel)对知觉的一个有用定义是“某种东西”。
例如,我们直觉地觉得做砖没有什么好比的,但很可能是狗等等。
然而,目前物理学中没有客观的测试可以判断其他实体是否有这种“第一手经验”,相应地也没有任何设计肯定会导致感知。
我们拥有的最好的测试是图灵测试及其变体。最明显的设计是神经形态设计,因为我们知道人脑的设计至少与感知相关。
鉴于上述情况,我们不能明确地说出关于感知的较低复杂性阈值的很多内容——我们可以做的最好的事情是计算我们可能准备承认有感知的生物中的神经元。
实际上,在我看来,终结者 AI 不必是有知觉的。这是一个硬编码的条件,它可以自我保护,因为它是军队抵抗入侵的最重要资产。人工智能为了保护自己而转向美国人,这应该是程序员的疏忽。意外的行为根本不需要感知力。
科幻小说中的人工智能与现实存在的人工智能根本不同的是,它是一种“通用人工智能”,能够同时在多个不同层面上理解世界,并且仍然能够做出明智的决策。所有真正的 AI 都被编程为执行非常具体的事情,例如图像识别或寻路。例如,GPS 探路者无法学习驾驶汽车。事实上,它并不知道有车。或者一条路。或者人。它只是在其地图上找到互连节点之间的最短距离。
就个人而言,我不相信有任何证据表明“通用人工智能”是可能的。我不认为这是未来 100 年当前发展的合理进展。