我们可以从人工神经网络中了解人类大脑的哪些信息?

机器算法验证 机器学习 神经网络 生物信息学 人工智能 神经科学
2022-01-24 11:55:47

我知道我的问题/标题不是很具体,所以我会尝试澄清它:

人工神经网络具有相对严格的设计。当然,一般来说,他们会受到生物学的影响,试图建立真实神经网络的数学模型,但我们对真实神经网络的理解不足以建立精确的模型。因此,我们无法设想精确的模型或任何“接近”真实神经网络的东西。

据我所知,所有人工神经网络都与真正的神经网络相去甚远。生物学中不存在标准的、经典的全连接 MLP。循环神经网络缺乏真正的神经可塑性,RNN 的每个神经元都具有相同的“反馈架构”,而真正的神经元则单独保存和共享它们的信息。卷积神经网络是有效且流行的,但是(例如)人脑中的图像处理仅包含几个卷积层,而现代解决方案(如 GoogLeNet)已经使用了数十层......尽管它们为计算机产生了很好的结果,他们甚至没有接近人类的表现。尤其是当我们想到“每层性能”时,因为与真正的神经网络相比,我们需要相当多的层和数据减少。

此外,据我所知,与真实神经网络的巨大适应性相比,即使是模块化、自扩展/自重构的人工神经网络也相当“固定和静态”。生物神经元通常有数以千计的树突将神经元连接到大量不同的区域和其他神经元。人工神经网络更加“直截了当”。

那么,我们可以从人工神经网络中了解人脑/真实神经网络吗?还是只是尝试创建比经典的静态算法性能更好的软件(或者甚至做这些算法失败的事情)?

有人可以提供有关此主题的(最好是科学的)资源吗?

编辑:高度赞赏更多答案(:

4个回答

正如您所提到的,大多数神经网络都是基于大脑的一般简单抽象。它们不仅缺乏可塑性等模仿特征,而且不像真正的神经元那样考虑信号和时间。

最近有一次采访,我觉得它适合您的具体问题,机器学习大师迈克尔乔丹谈大数据的错觉和其他巨大的工程努力,我引用:

但确实,对于神经科学来说,理解深层原理需要几十年甚至几百年的时间。在最底层的神经科学方面取得了进展。但是对于更高认知的问题——我们如何感知、我们如何记忆、我们如何行动——我们不知道神经元如何存储信息、它们如何计算、规则是什么、算法是什么、表示是什么,以及类似。因此,我们还没有进入一个可以利用对大脑的理解来指导我们构建智能系统的时代。

到目前为止,从人工神经网络中了解的大脑功能并不多——可以说是一无所获。[澄清:我写这个答案是考虑机器学习中使用的神经网络;@MattKrause(+1)是正确的,一些生物神经现象的神经网络模型在许多情况下可能会有所帮助。]然而,这可能部分是由于对机器学习中人工神经网络的研究或多或少在一直停滞不前,直到 2006 年左右,杰弗里·辛顿(Geoffrey Hinton)几乎单枪匹马地重新点燃了整个领域,该领域现在已经吸引了数十亿美元。

在 2012 年 Google 的一场名为Brains, Sex, and Machine Learning的讲座中(从 45:30 开始),Hinton 建议人工神经网络可以提供一个提示,解释为什么 [大多数] 神经元与尖峰而不是模拟信号进行通信。也就是说,他建议将峰值视为类似于 dropout 的正则化策略。Dropout 是最近开发的一种防止过度拟合的方法,当在任何给定的梯度下降步骤上仅更新权重子集时(参见Srivastava 等人,2014 年)。显然它可以很好地工作,Hinton 认为也许尖峰(即大多数神经元在任何给定时刻保持沉默)可以起到类似的作用。

我在一家神经科学研究所工作,我不知道这里有任何人相信 Hinton 的论点。陪审团仍然缺席(并且可能会缺席相当长的一段时间),但至少这是人工神经网络可能教会我们大脑功能的一个例子

人脑只使用“几个”卷积层肯定是不正确的。大约 1/3 的灵长类大脑以某种方式参与处理视觉信息。这张来自Felleman 和 Van Essen的图表粗略地描述了视觉信息如何在猴子大脑中流动,从眼睛(底部的 RGC)开始,到海马体(一个记忆区域)结束。费勒曼和范埃森

这些盒子中的每一个都是一个解剖定义的区域(或多或少),其中包含几个处理阶段(在大多数情况下是实际层)。该图本身已有 25 年历史,如果有的话,我们了解到还有更多的框和更多的线。

确实许多深度学习工作更多地是“模糊地受到”大脑的启发,而不是基于一些潜在的神经真理。“深度学习”还具有比“迭代逻辑回归”听起来更性感的额外优势。

然而,神经网络的数学模型也对我们对大脑的理解做出了很大贡献。在一个极端,一些模型试图精确地模仿已知的生物学和生物物理学。这些通常包括单个离子及其流动的术语。有些人甚至使用真实神经元的 3D 重建来约束它们的形状。如果您对此感兴趣,ModelDB拥有大量模型和相关出版物。许多是使用免费提供的NEURON软件实现的。

有一些更大规模的模型试图模拟某些行为或神经生理学影响,而不必过多担心潜在的生物物理学。Connectionist或 Parallel-Distributed-Processing 模型,在 1980 年代后期和 1990 年代特别流行,使用的模型类似于您在当前机器学习应用程序中可能找到的模型(例如,没有生物物理学、简单的激活函数和定型连接)来解释各种心理过程。这些已经有点过时了,尽管人们想知道现在我们拥有更强大的计算机和更好的培训策略,它们是否会卷土重来。(请参阅下面的编辑!)

最后,中间有很多工作,包括一些“现象学”,以及一些生物学细节(例如,具有某些特性的明确抑制术语,但不适合氯离子通道的确切分布)。很多当前的作品都属于这一类,例如,王晓静的作品以及许多其他人......)

编辑:自从我写这篇文章以来,将(真实)视觉系统与受过对象识别任务训练的深度神经网络进行比较的工作激增。有一些惊人的相似之处。神经网络第一层的核与初级视觉皮层的核/感受野非常相似,随后的层类似于更高视觉区域的感受野(例如,参见 Nikolaus Kriegeskorte 的工作)。重新训练神经网络可以引起与广泛的行为训练类似的变化(Wenliang 和 Seitz,2018)DNN和人类有时——但并非总是——也会产生类似的错误模式。

目前,尚不清楚这是否反映了真实神经网络和人工神经网络之间的相似性,特别是关于图像的某些东西[*],或者所有条纹的神经网络都倾向于找到模式,即使它们不存在。尽管如此,将两者进行比较已成为一个越来越热门的研究领域,我们似乎很可能会从中学到一些东西。

* 例如,早期视觉系统/CNN 第一层中使用的表示是自然图像的最佳稀疏基础。

我们真正学到的是稀疏激活的使用和线性校正激活函数的使用。后者基本上是一个原因,为什么我们看到所谓的神经网络的活动爆炸式增长,因为使用这种激活函数导致我们用来称为神经网络的那些人工计算网络的训练能力急剧下降。

我们学到的是为什么突触和神经元是以这种方式构建的,以及为什么它更可取。这些线性整流激活 (f(x) := x > a ? x : 0) 导致稀疏激活(只有少数“神经元”(权重)被激活)。

因此,当我们的知识扩展到生物学功能时,我们会做什么,我们理解为什么进化选择和偏好它。我们知道这些系统已经足够了,而且在训练期间的错误控制方面也很稳定,并且还保留了大脑中的能量和化学/生物资源等资源。

我们只是理解为什么大脑是这样的。此外,通过训练和查看我们理解的关于可能的信息流和所涉及的信息处理的策略,帮助我们构建和评估关于这些主题的假设。

例如,我记得十年前的事情是训练一个学习自然口语的系统,发现该系统显示出类似的问题,这些问题重新组合了婴儿学习口语的类比行为。甚至学习不同语言之间的差异也足够相似。

因此,通过研究这种方法和设计,可以得出结论,语言学习过程中的人类信息处理足够相似,可以为语言相关问题得出培训建议和治疗,它有助于帮助和理解人类的困难并开发更有效的治疗方法(无论怎样它在实践中真正做到了是另一个问题)。

一个月前,我读了一篇关于 3D 导航和大鼠大脑记忆如何真正起作用的文章,并且通过为每个发现创建计算模型,这对了解真正发生的事情有很大帮助。因此,人工模型填补了生物系统观察到的空白。

当我得知神经学科学家使用的语言更像是工程师而不是生物学人谈论电路、信息流和逻辑处理单元时,我真的很惊讶。

因此,我们从人工神经网络中学到了很多东西,因为它为我们提供了经验游戏场地,我们可以从中得出规则和保证,说明为什么大脑的结构是这样的,以及为什么进化更喜欢这种结构而不是替代方式。

仍然有很多空白,但从我读到的内容来看——我最近才进入 CNN 等,但在 2000 年代初期的大学期间有人工 AI、模糊逻辑和神经网络。

所以我赶上了十年的发展和发现,感谢所有神经网络和人工智能领域的科学家和从业者。干得好的人,干得好!