“需要时增长”方法的实现

数据挖掘 神经网络 喀拉斯 张量流
2022-03-10 05:44:25

最近我发现了诸如 GWR 神经网络之类的东西。这是一个可以动态扩展的神经网络家族:在广度和/或深度上。据我了解,这样的网络被宣布在持续学习任务中给出最好的结果,因为它们的主要目标是减轻灾难性的干扰/遗忘。

尽管这种方法对我来说是新的,但它似乎是在 2002 年首次引入 - 超过 15 年前。但这里最有趣的是,我在流行的框架中找不到任何这些算法的实现!我的主要开发工具是 Deeplearning4j,我很确定在那里没有以任何方式实现持续学习。我还搜索了诸如“需要时增长的 tensorflow”或“keras 动态增长的网络”之类的内容,但没有给出任何结果。

我的问题是:为什么会出现这种机制在流行的 NN 框架中不可用的情况,尽管它的结果很有希望(至少基于我读过的科学论文中的奇特情节)?或者,也许我遗漏了一些东西或使用错误的术语进行谷歌搜索,并且它的名称以某种方式不同?

0个回答
没有发现任何回复~