【发布时间】:2019-07-30 06:19:51
【问题描述】:
我有以下数据集
图像大小:256 x 256 x 3
批量大小 = 3
29924 张图片
def get_model():
#base_model = application(weights='imagenet', input_shape=(image_size,image_size,3), include_top=False)
#base_model.trainable = False
base_model = DenseNet201(weights='imagenet', input_shape=(image_size,image_size,3), include_top=False)
model = models.Sequential()
model.add(base_model)
model.add(layers.GlobalAveragePooling2D())
model.add(layers.Dense(1024, activation='relu'))
model.add(layers.Dropout(0.5))
model.add(layers.Dense(196, activation='softmax'))
model.summary()
#optimizer = optimizers.SGD(lr=1e-4, decay=1e-6, momentum=0.9, nesterov=True)
optimizer = optimizers.RMSprop(lr=0.0001)
model.compile(loss='categorical_crossentropy', optimizer=optimizer, metrics=['acc'])
return model
当我尝试运行模型时,它卡住了很长时间
并且内存使用量一直在上升,最后死了
- 如何计算特定模型的特定内存使用量?
对于我的情况 Densenet201
- 有没有办法更快地运行我的模型?(甚至运行)
- 有什么建议吗?
【问题讨论】:
标签: image-processing deep-learning conv-neural-network