科幻小说经常表明人工智能是对人类生存的威胁。从2001: A Space Odyssey到The Terminator及以后,人工智能系统经常成为许多小说作品中的对手。
媒体似乎也认同这种说法。近年来,像埃隆马斯克这样的人警告我们即将到来的人工智能革命的危险,称人工智能比核武器更危险。
而且,显然,专家认为我们将在未来 100 年内看到这场人工智能革命。
然而,从我(尽管有限)对人工智能的研究中,我得到的印象是它们都是错误的。我将在下面概述我的理解,如果我错了,请纠正我:
首先,所有这些似乎都将人工智能与人工智能混淆了。AI本质上是一个做出智能决策的系统,而AC更像是科幻小说中展示的“自我意识”系统。
不是人工智能本身,而是智能和智能决策算法是我们在计算机出现之前就一直在使用和增强的东西。将其转移到人工框架相当容易。然而,意识仍然是我们正在学习的东西。我的猜测是,如果我们几乎不了解它在现实世界中的工作原理,我们将无法人工重新创建某些东西。
所以,我的结论是,没有任何人工智能系统能够学习到足以开始独立思考的能力,而且我们对人工智能的所有警告都是完全没有道理的。
真正的危险来自 AC,我们距离意识到这一点还有很长的路要走,因为我们距离准确定义意识还有很长的路要走,更不用说理解它了。
所以,我的问题是,假设我的理解是正确的,与人工智能合作的公司或组织是否正在努力纠正这些在科幻、媒体和/或公众中普遍存在的误解?
还是人工智能的支持者对这种公开散布恐惧的行为持矛盾态度?
我知道散播恐惧的言论会流行一段时间,因为坏消息比好消息卖得更好。我只是想知道人工智能组织的普遍态度是否是忽略这种流行的误解,或者是否正在共同努力反对这些人工智能神话(但不幸的是,媒体中没有人在听或关心)。