模拟人脑 - 使用类似的 NN 芯片

人工智能 神经网络 应用
2021-10-25 02:37:02

考虑到这个问题的答案,以目前的计算能力模拟人脑是不可能的,但我们离它并不远。

请注意,1 或 2 年前,类似的计算也有类似的结果。

现代 CPU 的时钟频率似乎停止了,目前小型化(-> 移动使用)、RAM/缓存改进和多核并行化是发展的主线。

好的,但是类似芯片的情况如何?对于 NN,这不是一个很大的问题,如果它不是很准确,NN 会在其学习阶段适应细微的制造差异。并且一根模拟线可以代替一个复杂的整数乘除单元,而模拟印刷电路的整个表面可以并行工作。

根据这篇文章,“软件可重新布线”的模拟电路,本质上是“模拟 FPGA”已经存在。虽然 FPGA 的容量远低于同尺寸的ASIC的容量,但也许类似的神经网络芯片也可能存在。

我怀疑,如果它是正确的,也许即使是真正的人脑模型也不会太远。它仍然需要一个由昂贵的类似 NN 芯片组成的大规模并行系统,但在我看来并非不可能。

这个想法可行吗?也许甚至在这个方向上有积极的研究/开发?

4个回答

我不确定“模拟大脑”本身,但在更一般的意义上,人们已经考虑过将模拟计算用于 AI/ML。很明显,模拟计算机确实比数字计算机具有某些优势。一方面,它们可以(取决于应用程序)更快,尽管以损失一些精度为代价。但这没关系,因为我认为没有人相信人类大脑也在使用数字计算技术计算浮点数学。至少从表面上看,人脑在很大程度上是概率性的,并且能够在数字上容忍一些“倾斜”。

据我了解,模拟计算机的缺点是它们不那么灵活......你基本上是硬连线一个电路来做一个特定的“事情”,这就是它所能做的一切。要更改“编程”,您必须真正焊接新组件!或者,我想,调整电位器或可调电容器等。无论如何,关键是数字计算机非常灵活,这是它们主宰世界的一大原因。但我可以看到,对于构成智能系统的部分或全部的离散功能,在哪些地方可以进行模拟。

至于该领域的研究,您可能会研究 DARPA 正在/正在做什么。不久前,Wired上有一篇文章,谈到了 DARPA 与模拟计算相关的一些举措。

我目前正在阅读Nick Bostrom 的《超级智能:路径、危险和策略》 。当他讨论全脑仿真时,虽然计算能力(存储、带宽、CPU、身体模拟和环境模拟)是我们成功的三个普遍关键因素之一,但他似乎也同意计算能力是最重要的。到目前为止,我们为实现它而拥有的三个一般性问题的可行性和可实现性。不过他也接着说

全脑模拟需要多少技术取决于模拟大脑的抽象程度。参考

这是一个有趣的想法,但完全不同的讨论。

无论如何,所以我认为你认为我们离拥有计算能力不远,也许你正在做某事是正确的,但最大的障碍是我们在开始之前需要达到的另外两个关键先决条件尝试,即扫描和翻译。

在这三个中,到目前为止,翻译似乎是我们最需要推进的一个。实现全脑仿真的适度预测至少需要 15 年或世纪中叶。这本书中有更多关于实现超级智能的所有不同途径的信息,并且经过深入研究,如果你还没有阅读过,我强烈推荐它。

我看到这个建议有两个主要问题。

一:数字电路占用的空间少得多,而且更容易设计,因此您可以通过这种方式组装一个更大的系统。(更不用说在系统中连接单独的芯片)这主要是因为在数字电路中,您的容差可能会非常宽松。

更大的问题是:我们仍然不知道神经元是如何工作的。人工神经网络有点类似于自然神经网络,但它们的行为不同。有各种离子通道,有电信号,这些神经元相互刺激,达到阈值,就会发出尖峰信号。当它很快再次到达时,您可以看到信号中的突发。据我所知,研究人员还不知道你需要实现什么功能来模拟它。最接近的 ANN 是尖峰神经网络,但在实践中并不是很有用。

如果宇宙是离散的,那么模拟现象(流动性、曲率)是建立在原始离散现象(点点滴滴)之上的。

如果宇宙是连续的,那么离散现象(点点滴滴)是建立在原始连续现象(流动性、曲率)之上的。

如果宇宙是离散的,那么看似模拟现象的速度将受到时间和空间中可能发生的离散现象的数量的限制。

如果宇宙是连续的,那么时间、空间或物质可能是无限可分的,这可能允许某些现象的执行速度比这些现象自然环境中的执行速度更快(如蛋白质折叠或电路)——所谓的“超级图灵” “计算。

然而,连续宇宙的想法引出了一个问题:所有这些离散性从何而来?离散宇宙可以通过近似和随机性(或伪随机性)允许明显的连续行为,而无限可分的宇宙没有明确定义事物应该从哪里开始和结束。这是许多思想家回避考虑无穷大的原因之一——它们可能是虚幻的。

那么,模拟“电路”能否比数字电路执行得更快?截至目前,我们知道一些看似模拟的现象似乎比一些数字现象执行得更快(如电子自旋与硅逻辑门)。模拟现象是否在本质上比数字更有效取决于宇宙的实际性质,我们尚未确定。