我一直试图在 Internet 上找到好的资源来描述 Wisard 神经网络是什么以及它们与传统神经网络的区别,但没有找到任何实质性的东西。谁能解释一下它们的主要特征吗?
什么是 WISARD 神经网络?
IIRC WISARD 是帝国理工学院的 Igor Aleksander 在 1980 年代和 1990 年代初期开发的一种基于 RAM 的神经网络方法。基于 RAM 的神经网络本质上使用查找表来存储每个神经元计算的函数,因此很容易在数字硬件中实现并具有高效的训练算法。这些天似乎很少使用它们。认为最好的信息来源是 Aleksander 和 Morton 的书“神经计算简介”(遗憾的是我找不到我的副本)。我认为这些天来这种网络使用得不多,很遗憾,因为它们很有趣;我最喜欢的变体是“单层查找感知器”,它与 n 元组分类器有关(参见这篇论文,还有这个一,详细信息。)它们在某些方面似乎让人联想到随机森林方法和“极端学习”方法(因为使用一组固定的随机基函数训练线性模型)。
谷歌学者搜索Igor Aleksander WISARD应该可以找到大部分相关材料。
然而,迄今为止(1985 年)该领域的一个主要工作开发是 N 元组分类器:“WISARD”(WIlkie、Stoneham 和 Aleksander,识别设备),它已在布鲁内尔大学开发并由 Computer Recognition Systems Limited 商业化生产.
WISARD 系统作用于来自以 30 fps 工作的标准灰度电视摄像机的图像。对于每一帧,图像都被二值化。然后存储图像的每个像素被伪随机采样(映射 - 即使用伪随机数从整个帧区域中选择以选择帧中的每个像素)并形成 N 个的 K 个组(元组)(其中 N 是一个整数 - 通常介于 1 .. . . .. .. 8) 之间。每个 N 元组形成的数据模式作为地址应用于随机存取存储器 (RAM) 元素。(注意:伪随机数生成器将始终从相同的种子号开始提供相同的非重复数字流)。
这个内存元素的大小是 2^N 位,其中 N 是正在使用的元组的大小(因此 4 元组将使用 16 位大小的内存元素,而 8 元组将使用 256 位内存元素),并且“1”将写入该存储空间中与元组形成的 N 大小地址相对应的位(所有其他空间最初设置为零)。机器的内存空间被划分为 C 组,每组 K 个地址(其中 K = 图像中的像素数,K*N = 一个存储图像的向量空间)。这些内存地址组中的每一个都称为鉴别器。
在训练阶段,系统对分类模式下要识别的每个对象进行多次采样(一个训练集)并分配C组内存中的一个,并成为该对象的判别器。
如果在重复采样期间(使用相同的伪随机映射)由 N 元组形成的地址略有不同,则在内存元素中放置额外的“1”(预计会发生这种情况,否则该方法将很少比模板匹配更好)。
当机器用于识别时,使用相同的伪随机映射,从要识别的对象生成的 N 元组应用于所有训练过的鉴别器中它们对应的内存元素。如果存在匹配(“1”),则存储元素将返回“1”或“0”。对每个鉴别器进行求和并生成结果的直方图。产生高响应的鉴别器很可能是被分类的对象。
摘自我 1985 年的论文“INMOS Transputer 在机器人视觉中的研究”pp7 – 11
WISARD 实际上是由 Bruce Wilkie、Sonham asreader、Alexandre 获得资金建立的。埃里克柯南是建造它的技术人员之一。它在皇家学院展出,玛吉看了看
Wi Wilkie S Stonham A Alexandre R 识别 D 鉴别器 -
两个 19 英寸电子机架 - 带有大量铜母线和平滑电容器的大型变压器 - 线性稳压器 - 带有电视摄像机输入到电视显示器RAM 图像比较。随机选择内容(按位)并计算命中数和未命中数 D
WISARD 为 WILKIE STONHAM 和 ALEXANDER 命名。基于硬件 RAM 的神经网络被硬连线为感知器系统。这在 ALEXANDERS 自己的一本书中有所描述。它所做的不同之处在于,在 Marvin 和 Minsky 教授发表了关于神经网络线性度的灾难性论文之后,业界对神经网络的关注重新开始,换句话说,他们可以解决的任何问题都是线性和非线性的。WISARD 系统证明了神经网络的工作原理,并在当时引发了一场新的无声革命。