卷积核是如何学习的?

数据挖掘 深度学习 喀拉斯 张量流 美国有线电视新闻网 卷积
2022-02-19 17:50:15

在学习机器学习的基础知识时,我无法理解 CNN 中的卷积层是如何学习卷积核的。在看了最初的几个教程后,我认为内核是固定的:例如,有一个 2D 内核提取垂直线,另一个提取水平线等。后来我意识到内核是由网络学习的,而不是固定的。

关于学习如何进行、反向传播如何工作(与全连接层相比)、优化函数是什么等是否有很好的解释?

ps 让这成为一个示例函数来解释:https ://keras.io/layers/convolutional/ 。

2个回答

有时核函数很难以固定形式选择,即使一旦找到它会更容易。可以学习通过半定规划、使用超内核等凸优化方法将数据映射到特征空间(希尔伯特空间)中。

可以在这里找到一些对您的问题非常有用的论文:

通过凸优化学习内核

用半定编程学习核矩阵

使用超内核学习内核

通过正则化学习核函数

我希望这能回答你的问题

令人惊讶的是,卷积核是通过简单的反向传播来学习的。该模型将错误传播到内核参数,就像它对更规范的密集参数所做的那样,并相应地训练它们。

内核不是固定的,众所周知,学习的过滤器比固定的先验过滤器要强大得多。

这是它的可视化实际上比背后的数学(恕我直言)更复杂的情况之一。

如果您正在寻找详细的解释,这篇文章是对卷积所有细节的非常好的解释,然后我发现了这篇这篇关于反向传播如何工作的更具体的文章。不过,它们更具技术性。