在阅读了 Elon Musk 关于人工智能以及它如何影响我们的生活的一些内容之后,我一直在阅读关于人工智能、深度学习等的内容。经常出现的主题是神经网络,用于“识别任务”。
虽然这不是我的主要问题,但我们可以说以下关于神经网络的内容吗?
神经网络使用 sigmoid 函数和梯度下降来微调权重。
无论如何,神经网络似乎并没有真正模仿我们与智能生物(如人类)相关的任何属性,例如跳出框框思考,能够观察、反思和提出创新。
那么,有没有真正模仿人类智能的人工智能系统呢?
在阅读了 Elon Musk 关于人工智能以及它如何影响我们的生活的一些内容之后,我一直在阅读关于人工智能、深度学习等的内容。经常出现的主题是神经网络,用于“识别任务”。
虽然这不是我的主要问题,但我们可以说以下关于神经网络的内容吗?
神经网络使用 sigmoid 函数和梯度下降来微调权重。
无论如何,神经网络似乎并没有真正模仿我们与智能生物(如人类)相关的任何属性,例如跳出框框思考,能够观察、反思和提出创新。
那么,有没有真正模仿人类智能的人工智能系统呢?
至于模仿一个聪明的人,没有。可能的 AGI 有几种不同的潜在架构。其中许多都是非常幼稚的,因为大部分人工智能研究都属于狭义人工智能,它专注于创建针对特定任务高度专业化的算法。
话虽如此,这里是 Andrej Karpathy 解决这个问题的一种监督学习方法:Karpathy Method
OpenAI 也有一个研究 AGI 问题的团队。
不,我们甚至还没有接近可以与人类通用智能相媲美的算法。你可能听说过神经网络的工作原理类似于大脑中的神经元的说法,但这是相当牵强的。Serena Yeung 在斯坦福课程 CS231n的第四讲中谈到了这一点。跳到视频中的 1:04:30,这就是这部分的开始。
当谈到意识和感受质的话题时,我们还不太可能拥有创造有意识的人工智能的技术。我说极不可能,因为从哲学的角度来看,至少根据我们目前的知识,我们缺乏检测另一个人的感受质的能力(称为感受质问题)。所以我们无法证明,我们还没有创造出人工意识。
我还从您的评论中收集到您想知道的,为什么我们害怕强大的 AI。我可以推荐Nick Bostrom 的Superintelligence。他讨论了强人工智能可能威胁人类的许多不同场景。这些场景通常不需要意识。
关于“模仿人类智能”——>不,甚至没有接近。
关于这一点:
更具体地说,我们可以说以下关于神经网络的内容吗?
神经网络使用 sigmoid 函数和梯度下降来微调权重。
不,再一次。ANN 不需要使用 sigmoid 激活函数。根据具体情况,还可以使用许多其他选项。此外,梯度下降也不是严格要求的,即使它是用于反向传播的最流行的优化算法之一。还有其他方法可以训练人工神经网络——例如,可以使用遗传算法。