我目前正在阅读Michael R. Berthold 和 Jay Diamond 的通过动态衰减调整提高 RBF 网络的性能(在线),以了解动态衰减调整(DDA;RBF 网络的建设性训练算法)如何。这样做,我偶然发现了原型这个词:
不幸的是,PRCE 网络不会单独调整其原型的标准差,仅使用该参数的一个全局值。
[...]
本文介绍了动态衰减调整 (DDA) 算法,该算法利用了 PRCE 算法的构造特性以及每个原型衰减因子的独立适应。
[...]
PNN 不适合大型数据库,因为它们会为遇到的每种训练模式提交一个新原型,从而有效地成为参考记忆方案。
我试图在他们在此上下文中引用的唯一资源中找到它(DL Reilly、LN Cooper、C. Elbaum:“A Neural Model for Category Learning”),但遗憾的是我无法访问该资源。
我在https://chrisjmccormick.wordpress.com/2013/08/15/radial-basis-function-network-rbfn-tutorial/上找到了解释:
RBFN 通过测量输入与训练集中示例的相似性来执行分类。每个 RBFN 神经元都存储一个“原型”,这只是训练集中的示例之一。当我们想要对新输入进行分类时,每个神经元都会计算输入与其原型之间的欧几里得距离。粗略地说,如果输入更接近于 A 类原型而不是 B 类原型,则将其归类为 A 类。
所以原型只是 RBF 神经元的参数(中心和半径,假设使用高斯)?
改写第一个引用的句子,这是否意味着 RBF 网络通常只学习中心和半径是固定的?
我的问题是我是否理解正确。请添加参考(不是随机的博客文章),以使其更清晰。