在学习机器学习的基础知识时,我无法理解 CNN 中的卷积层是如何学习卷积核的。在看了最初的几个教程后,我认为内核是固定的:例如,有一个 2D 内核提取垂直线,另一个提取水平线等。后来我意识到内核是由网络学习的,而不是固定的。
关于学习如何进行、反向传播如何工作(与全连接层相比)、优化函数是什么等是否有很好的解释?
ps 让这成为一个示例函数来解释:https ://keras.io/layers/convolutional/ 。
在学习机器学习的基础知识时,我无法理解 CNN 中的卷积层是如何学习卷积核的。在看了最初的几个教程后,我认为内核是固定的:例如,有一个 2D 内核提取垂直线,另一个提取水平线等。后来我意识到内核是由网络学习的,而不是固定的。
关于学习如何进行、反向传播如何工作(与全连接层相比)、优化函数是什么等是否有很好的解释?
ps 让这成为一个示例函数来解释:https ://keras.io/layers/convolutional/ 。
有时核函数很难以固定形式选择,即使一旦找到它会更容易。可以学习通过半定规划、使用超内核等凸优化方法将数据映射到特征空间(希尔伯特空间)中。
可以在这里找到一些对您的问题非常有用的论文:
我希望这能回答你的问题