我正在尝试在瓶颈处实现一个具有密集层的卷积自动编码器,以进行一些降维。我已经看到了两种方法,它们不是特别可扩展的。第一个是引入 2 个密集层(一个在瓶颈处,一个在其前后具有与编码器部分中密集层之前的 conv2d 层相同的节点数:
input_image_shape=(200,200,3)
encoding_dims = 20
encoder = Sequential()
encoder.add(InputLayer(input_image_shape))
encoder.add(Conv2D(32, (3,3), activation="relu, padding="same"))
encoder.add(MaxPooling2D((2), padding="same"))
encoder.add(Flatten())
encoder.add(Dense(32*100*100, activation="relu"))
encoder.add(Dense(encoding_dims, activation="relu"))
#The decoder
decoder = Sequential()
decoder.add(InputLayer((encoding_dims,)))
decoder.add(Dense(32*100*100, activation="relu"))
decoder.add(Reshape((100, 100, 32)))
decoder.add(UpSampling2D(2))
decoder.add(Conv2D(3, (3,3), activation="sigmoid", padding="same"))
很容易看出为什么这种方法会爆炸,因为有两个密集连接的层,每个或更多节点都有(32 100 100)个节点,或者在那个疯狂的球场中。
我发现另一种对黑白图像有意义的方法是引入任意数量的编码维度并对其进行重塑(https://medium.com/analytics-vidhya/building-a-convolutional-autoencoder -using-keras-using-conv2dtranspose-ca403c8d144e)。以下代码块是从链接中复制的,我不承认它的功劳:
#ENCODER
inp = Input((28, 28,1))
e = Conv2D(32, (3, 3), activation='relu')(inp)
e = MaxPooling2D((2, 2))(e)
e = Conv2D(64, (3, 3), activation='relu')(e)
e = MaxPooling2D((2, 2))(e)
e = Conv2D(64, (3, 3), activation='relu')(e)
l = Flatten()(e)
l = Dense(49, activation='softmax')(l)
#DECODER
d = Reshape((7,7,1))(l)
d = Conv2DTranspose(64,(3, 3), strides=2, activation='relu', padding='same')(d)
d = BatchNormalization()(d)
d = Conv2DTranspose(64,(3, 3), strides=2, activation='relu', padding='same')(d)
d = BatchNormalization()(d)
d = Conv2DTranspose(32,(3, 3), activation='relu', padding='same')(d)
decoded = Conv2D(1, (3, 3), activation='sigmoid', padding='same')(d)
那么,有没有更严格的方法在 2d 卷积层之后添加密集层呢?