在美国大选期间假新闻爆炸之后,以及关于人工智能是否可以通过互联网进行自我教育的问题,我很清楚任何新推出的人工智能都会有一个严重的问题,即不知道该相信什么(即依赖作为做出预测和决策的输入)。
其创建者提供的信息很容易是虚假的。许多 AI 无法使用摄像头和传感器通过自己的观察来验证事物。
如果有某种信息验证系统(例如“真相区块链”或“可信来源”系统),那么实际上如何发挥作用?
在美国大选期间假新闻爆炸之后,以及关于人工智能是否可以通过互联网进行自我教育的问题,我很清楚任何新推出的人工智能都会有一个严重的问题,即不知道该相信什么(即依赖作为做出预测和决策的输入)。
其创建者提供的信息很容易是虚假的。许多 AI 无法使用摄像头和传感器通过自己的观察来验证事物。
如果有某种信息验证系统(例如“真相区块链”或“可信来源”系统),那么实际上如何发挥作用?
没有一些大的限制是不可能的。它可以做的是查看已知的“好”网站并将新闻与可能“坏”的网站进行比较。这里明显的问题是将某些网站定义为绝对真理。例如,它可以在阅读文本时识别出某个政客说了些什么。这些句子可以与其他网站进行比较,如果有显着差异,则该新闻是虚假新闻的候选者。
实际上,程序会提取句子“我喜欢猫”、“说他喜欢猫”、“约翰喜欢的猫”等。我们需要将某物识别为引用的部分,提取它的部分,最后是解析器,所以我们最终得到结构以某种形式存储,包含句子的含义(john-like-cats)。它还可以保留所说的时间和上下文信息,例如文章的时间戳,一些可以指示地点的专有名词(XY会议,伦敦......)。现在,可以比较和检查可疑文章是否匹配时间、地点、某些上下文并包含相似的引用。最后,它需要比较它与其他报价的不同之处。“......讨厌猫”应该被标记为潜在的假新闻,但“喜欢狗”、“认为猫还可以”、“唱歌很好”等。不应该。这可以扩展到整篇文章的比较。
有许多功能可用于将特定文章定义为假货。当涉及到特定(政治、经济、生态......)意见时,寻找虚假网站的有趣功能可能是偏见。但最终机器无法在不将其与其他文章进行比较的情况下判断该文章是否为假货。它必然是一个以主观方式反映现实世界的封闭系统。
出于这个原因,我强烈不同意上述所有答案: - 如果我们作为人类可以被“我们”认为是好的新闻来源所愚弄和欺骗,那么人工智能计算机怎么可能有机会?
然而,挑战在于人工智能必须能够针对已知媒体“测试”信息源,才能了解真相。这是与上面所吹捧的情况截然不同的动态环境。
例如,如果一名妇女声称一名男子强奸了她——这没有向警方报告——仅仅将一个人的陈述与另一个人的陈述进行比较以确定真相是不够的。这是因为勾结、影响或凝聚第三方、错误的看法和错误的信念会产生误报。
但是,如果 AI 可以从她的陈述中确定,在她声称被强奸的那天,被指控的袭击者在她的陪伴下无法行动,直到她离开他的家,因为警方报告称她对袭击者感到不安因为他在她整个逗留期间因为吸毒而睡着了。但是,这份警方报告来自一个独立消息来源,该消息来源称“x”先生那天睡着了。
进行严格的文本检查不会给出正确的答案。分析她的朋友和同事的闲聊也可以确认虚假报告是真实的。
因此,人工智能必须有能力在口述标准之外“测试”书面报告。
输入 -> 预测 -> 输出 -> 输入 -> 预测 -> 输出 -> 输入 -> ...
AGI 可以轻松确定哪个输入是真实的/真实的。它将使用每个有机体使用的相同方法:任何输入都是真实的,除非您将其他一些东西误认为是“输入”。
我将输入定义为:跨越边界并从您的思想之外进入您的思想。最低限度的硬连线检查是确保大脑内部产生的信号不会被错误地识别为来自外部(又名“我听到声音”)。就这样。这是真理区块链的起点和终点。
网络文章?AI 的输入是:AI 的网络接口之一接收到许多字节。一旦验证它们来自网络,而不是虚构的,它们就不能以任何有意义的方式不真实或不真实。根据输入的定义,事实上我们唯一可以确定的是真实和真实的。
当然,人工智能可能会就这些恰好包含 ASCII 字符串的字节形成假设,例如“特朗普”、“约翰史密斯”、“西伯利亚海滩上的冰球”。然后人工智能将有望根据这些假设做出预测,可能会相互作用,可能会获得一些新的输入,拒绝假设并做出新的假设,冲洗并重复。
第一个假设将是超级幼稚的,但百分之一,千?
如果你过早地结束这个过程——也许是因为缺乏处理能力——你会得到你所谓的“信念”。(就像相信某些情绪化的网页实际上可能揭示了关于我们政治制度的重要真相。)这种信念是“厌倦了尝试新假设,将坚持这个假设”的同义词。典型的人事。我希望 AI 的处理能力要少得多,因为它拥有更多的处理能力。人工智能将不再固守高中水平的真理,即你应该为以报纸文章形式撰写的陈述赋予极大的可信度,它有望形成越来越多的假设,并对其进行检查。
实际上,人工智能将更少依赖于相信外部世界产生的各种陈述。
虽然我在这里链接的实验是一个非常狭隘的意识,但它是这样的:机器人第一次通过了经典的自我意识测试。如果代理可以向自己证明某事,我们就可以说它“知道”。当然,您要询问的意识水平非常棘手。
简而言之,它无法绝对肯定地知道它所体验的是真实的,因为任何类型的感觉都可能被伪造。你知道什么是真实的吗?你认为你做到了,但你能证明吗?不,意识是主观的。