我有一个多输入卷积神经网络模型,它从 2 个数据集中输入 2 个图像,以给出一个输出,即两个输入的类。这两个数据集具有相同的类。我使用了 2 个 vgg16 模型并将它们连接起来对两个图像进行分类。
vgg16_model = keras.applications.vgg16.VGG16()
input_layer1= vgg16_model .input
last_layer1 = vgg16_model.get_layer('fc2').output
vgg16_model2 = keras.applications.vgg16.VGG16()
input_layer2= vgg16_model .input
last_layer2 = vgg16_model.get_layer('fc2').output
con = concatenate([last_layer1, last_layer2]) # merge the outputs of the two models
output_layer = Dense(no_classes, activation='softmax', name='prediction')(con)
multimodal_model1 = Model(inputs=[input_layer1, input_layer2], outputs=[output_layer])
我的问题是:
1- 以下哪种情况代表图像如何进入模型?
一对一
数据库1-img1 + 数据库2-img1
数据库1-img2 + 数据库2-img2
数据库1-img3 + 数据库2-img3
数据库1-img4 + 数据库2-img4
…………
多对多
数据库1-img1 + 数据库2-img1
数据库1-img1 + 数据库2-img2
数据库1-img1 + 数据库2-img3
数据库1-img1 + 数据库2-img4
数据库1-img2 + 数据库2-img1
数据库1-img2 + 数据库2-img2
数据库1-img2 + 数据库2-img3
数据库1-img2 + 数据库2-img4
…………
2- 通常在深度学习中,从两个数据集进入模型的图像是否同时具有相同的类(标签)?