前提:一个成熟的具有自我意识的人工智能可能已经存在于像互联网这样的分布式环境中。有问题的可能的人工智能可能非常不愿意暴露自己。
问题:鉴于第一个初步怀疑,人们将如何尝试检测它的存在?是否有任何科学上可行的方法来探测这样一个实体的存在?换句话说,图灵警察如何发现那里是否有任何值得监管的东西?
前提:一个成熟的具有自我意识的人工智能可能已经存在于像互联网这样的分布式环境中。有问题的可能的人工智能可能非常不愿意暴露自己。
问题:鉴于第一个初步怀疑,人们将如何尝试检测它的存在?是否有任何科学上可行的方法来探测这样一个实体的存在?换句话说,图灵警察如何发现那里是否有任何值得监管的东西?
这个问题可能应该转移到worldbuilding.stackexchange ......
话虽如此,在故事的背景下,我会看一些类似意识的神经相关性的东西。在Stanislas Dehaene 的这本书中,描述的实验导致人们意识到有意识的感知需要在前额叶皮层的某些部分进行信息整合。基本上,大脑并行处理对感知的许多不同解释。为了意识到感知,必须将这种解释分解为一个单一的“真相”,然后传播到大脑的特定部分。
在你的故事中,你可以让一位意识研究人员偶然发现互联网部分信息流的图表,并意识到同样的信息整合正在发生。
“成熟的自我意识人工智能可能已经存在于像互联网这样的分布式环境中”
这个问题暗示这种人工智能已经超越了人类智能(完全成熟),因此,由于这种状态导致的智能爆炸的概念,你正在寻找的人工智能无疑是超级智能的。
问题是这个人工智能是
“不愿暴露自己”
因此不打算被发现。
鉴于这两个因素(其超强的智力和不愿被发现),我们可以得出结论,我们无法在常规条件下检测到这样的 AI。
一种可能的解决方案可能涉及使用第二个超级智能人工智能系统,但这在很多方面都是不稳定的。
检测更简单的人工智能将依赖于跟踪活动模式及其在分布式网络中留下的痕迹以找到它,然后对其进行某种形式的测试以验证其智能。
有大量可能的指标,这些指标会因相关的特定人工智能而有很大差异。这将尤其取决于 AI 如何存在于框架(此处为网络)中。
注意:超级智能 AI 不仅能够伪装其活动,而且还能找到绕过我们可以开发的任何测试的方法——这些能力使这种级别的 AI 可能是对人类的最大威胁,但如果我们能够一定要发展它并找到一种方法来获得它的联盟。