【问题标题】:Keras stops after 1 completed epochKeras 在 1 个完成的 epoch 后停止
【发布时间】:2020-03-07 16:54:36
【问题描述】:

尝试使用简单的 CNN 在 CIFAR-10 数据集上运行分类。但是,模型在完成第一个 epoch 后停止,并没有继续完成所有五个。请帮忙。

输入:

cifar10 = tf.keras.datasets.cifar10
(train_images, train_labels), (test_images, test_labels) = cifar10.load_data()

import os
import matplotlib.pyplot as plt
import numpy as np
import time
import tensorflow as tf
from tensorflow import keras 
from tensorflow.keras import layers
from tensorflow.keras import models
from tensorflow.keras import optimizers
from tensorflow.keras.applications import VGG16
from tensorflow.keras.preprocessing.image import ImageDataGenerator

model = models.Sequential()

# Convolutional base (feature extractor)
model.add(layers.Conv2D(32, (3, 3), activation='relu', input_shape=(32, 32, 3)))
model.add(layers.MaxPooling2D((2, 2)))

model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))

# Deep feed-forward classifier
model.add(layers.Flatten())
model.add(layers.Dense(64, activation='relu'))
model.add(layers.Dense(10, activation='softmax'))

model.compile(loss='sparse_categorical_crossentropy', optimizer=optimizers.RMSprop(lr=1e-4), metrics=['acc'])

history = model.fit(
    x=train_images,
    y=train_labels,
    steps_per_epoch=100,
    epochs=5,
    verbose=1,
    validation_data=(test_images, test_labels),
    validation_steps=50)

输出:

Train on 50000 samples, validate on 10000 samples
Epoch 1/5
50000/50000 [==============================] - 28s 564us/sample - loss: 2.1455 - acc: 0.2945 - val_loss: 2.0011 - val_acc: 0.3038

【问题讨论】:

    标签: python tensorflow keras deep-learning conv-neural-network


    【解决方案1】:

    您应该删除 steps_per_epoh 和 validation_steps 并使用 batch_size 参数。

    【讨论】:

    • 谢谢。它有帮助。虽然我不明白为什么。在我朋友的计算机上,完全相同的代码工作了 5 个时期。总之,非常感谢。
    • 你确定是同一个代码吗?您正在导入 ImageDataGenerator,因此如果您的朋友正在使用生成器,那么它不是相同的代码并且需要每个 epoch 的步骤。
    猜你喜欢
    • 2021-07-07
    • 1970-01-01
    • 2020-07-31
    • 1970-01-01
    • 2018-04-23
    • 2018-10-09
    • 1970-01-01
    • 2020-10-18
    • 1970-01-01
    相关资源
    最近更新 更多