考虑以下情况:有一个包含很多层的深度神经网络,为了加快推理速度或出于正则化目的,人们希望降低模型的复杂性。
从i到 的层j,有效地执行一些非线性变换:
在哪里和是输入的维度和层。有没有通过一些线性的搜索来近似这种非线性变换的研究 - 使用激活函数搜索卷积层,它尽可能接近多层的动作。
这种近似的损失函数可以只是一个 MSE 误差,其中输入是和输出 - 激活. 我看到了一个可能的问题,即从一个高维空间映射到另一个高维空间需要大量训练数据来进行可靠估计,但是,我想知道,文献中是否采用了这种方法?