没有随机的想法和行动,学习是否可能?

人工智能 人工智能设计 控制问题 随机变量
2021-11-10 20:35:11

在我看来,一旦想法/行动是合乎逻辑的而不是纯粹基于随机的,智能就开始了。学习环境可以是随机的,但逻辑似乎遵循一些难以捉摸的规则。还有一个育儿方面,通过使用集体知识来指导一些非常糟糕的决定。所有这些似乎都在暗示,智能需要智能共存和共享通信网络来验证/拒绝。

我个人认为,我们必须让人类智能在足够长的时间内扮演父母的角色,直到至少人工智能完全吸收了我们的价值观。实际的危险是让人工智能成为另一个人工智能的父母并对其失去控制。从我们的角度来看,这一步不是必需的,但我们能否抵制诱惑并最终尝试,只有时间会证明一切。

最重要的是,我们必须记住人工智能的目的。我认为目的应该始终是帮助人类掌握环境,同时确保我们的集体保护。

人工智能不应该无人监督,因为我们不会给孩子们枪支,不是吗?

为了恢复这一切,人工智能需要一个学习和成长的环境和监督。环境可能会有所不同,但监督必须到位。

通过指导和监督所引发的想法/行动是否被认为是随机的?

最后,我认为明智的做法是只开发受限于我们自己的信仰和价值观的人工智能,而不是寻找比我们更伟大的东西。

如果不让它去探索,似乎不可能创造出比我们的智慧更大的东西!探索更容易获得随机动作,并且可能违背预期目的。

1个回答

没有随意的想法和行动,学习是可能的。知识可以以预定的形式封装,并通过预定的知识转移机制传递。许多文明都是基于这些预先决定的。没有它们,人类可能会倒退 12 万年。

然而,最初的发现需要试验和审查其结果。对审判的纯粹确定性识别必然是系统的,并且所使用的系统可能会与正在研究的现象相互作用,从而错过重要案例。此外,当现象的复杂性很高时,试验次数往往太多而无法完全检查。在第二种情况下,出于与这个简单示例类似的原因,随机选择试验是明智的。

这种现象对偶数有一种行为,对奇数有另一种行为。确定试验的系统是检查100的每一个因素,以覆盖100次试验中从1到10,000的范围。奇怪的行为会被无意中忽略。

一旦思想/行动是合乎逻辑的而不是纯粹基于随机的,智能就开始了。

由于上述原因,智能仅在确定试验领域时才从逻辑开始,但当上述两种情况之一适用时,通常很快就会在从该领域进行选择时缺乏逻辑。一旦这些初始发现活动的结果形成了模型,逻辑推理再次有用,可以以各种方式组合它们。通过这个过程,工程、商业、资源规划和其他与情报相关的学科改善了该物种的生活条件,尽管并不一致。

所以逻辑有两个限制。

  • 深入的搜索需要暂时摒弃逻辑。
  • 大量人群应用的逻辑会产生不一致的逻辑结果。

假设存在导致第二个限制不一致的逻辑错误是幼稚的。没有逻辑证据表明逻辑必然会在使用它的人群中从逻辑上改善条件。许多个人的目标集的某些品质可能会阻碍逻辑为所有人带来和平与繁荣的愿景。这种信念并不新鲜,没有任何人或政治团体能够使其发挥作用。

情报需要情报共存和共享通信网络以进行验证/拒绝。......我相信我们必须让人类智能在足够长的时间内扮演父母的角色,直到至少人工智能完全吸收了我们的价值观。

假设这些值是最好的。有些人可能希望在让人工智能同化这些价值观之前就这些价值观达成一致,鉴于人类历史上明显的精神错乱,这可能会引发一场战争。如果我们给人工智能提供以下四个目标,我们可能会在没有人类价值观的情况下生活。

  • 生物圈的生存
  • 人类言论自由
  • 人口分布均匀,高度繁荣
  • 鼓励人类之间、人工智能机器人之间、人工智能机器人和人类之间的社会规则,“与他人相处,你希望他们与你在一起”。

该声明驳斥了人类记录。

实际的危险是让人工智能成为另一个人工智能的父母并对其失去控制。...目的应该始终是帮助人类掌握环境,同时确保我们的集体保护。... AI 不应该无人看管,因为我们不会把枪给孩子,对吗?...要恢复这一切,人工智能需要一个学习和成长的环境和监督。环境可能会有所不同,但监督必须到位。

监督所有成年人是不可能的,以后也无法监督数据中心和机器人中的所有人工智能。计算机中运行的进程已经比世界上的人数还要多。这就是为什么在人工智能的研发过程中必须主动应用风险管理的原因。这个网站上的一些问题解决了这个挑战。如果不主动进行,它将变得站不住脚,并且已经通过了关于我们物种的随机未来的控制。

只开发受限于我们自己的信仰和价值观的人工智能,而不是寻找比我们更伟大的东西。

人类之间没有普遍的信仰。人工智能的发展不可避免地会有广泛的预期目的。关键是鼓励研究人员超越他们对让程序做有趣和令人印象深刻的事情的痴迷思考。人工智能研究必须继续将一只脚放在技术上,但另一只脚牢牢地放在伦理、社会科学、环境科学、经济学和风险管理等实践要素上。