【发布时间】:2019-11-21 01:25:21
【问题描述】:
我使用了两个图像网络训练模型,即 VGG16 和使用 Keras API 在 python 中使用以下行的 inception;其中 x 是输入图像,批量大小为简单起见 =1。
VGGbase_model = InceptionV3(weights='imagenet', include_top=False,
input_shape=(299,299,3))
Inceptionbase_model = VGG16(weights='imagenet', include_top=False,
input_shape=(224,224,3))
predictVgg16= VGGbase_model.predict_on_batch(x)
predictinception= Inceptionbase_model.predict_on_batch(x)
我观察到 VGG16 模型预测的输出维度为 (1,512) ,我知道 512 是 VGG16 预测的特征。然而,初始模型输出的维度为 1,8,8,2048。我知道 2048 是 inception 预测的特征向量,但什么是 8,8 以及为什么 VGG16 只有二维而 inception 有 3。请提供任何 cmets。
【问题讨论】:
标签: image-processing keras deep-learning conv-neural-network vgg-net