【发布时间】:2020-12-22 02:43:22
【问题描述】:
我正在尝试在 Google colab 上使用深度 MLP 训练 MNIST 数字数据集。我已经对输入进行了整形并进行了数据预处理。模型代码如下:
#define the model layers
model = Sequential()
model.add(Dense(512, input_shape = input_shape, activation = "relu"))
model.add(Dense(256, activation = "relu"))
model.add(Dropout(0.1))
model.add(Dense(128,activation = "relu"))
model.add(Dense(64,activation = "relu"))
model.add(Dropout(0.1))
model.add(Flatten())
model.add(Dense(tar_class,activation = "sigmoid"))
model.compile(optimizer = "adam",
loss = "categorical_crossentropy",
metrics = ["accuracy"])
model.summary()
history = model.fit(X_train,y_train,
epochs = 10,
validation_split = 0.1,
batch_size = 64,
verbose = True)
当我运行 model.fit 代码时,只对数据集中的 844 个样本进行训练,而不是对 60000 个样本进行训练。但是,此代码在我本地的 jupyter 笔记本中运行良好。我想在 Colab 上工作,这样我就可以使用 GPU 来训练模型,这比我的本地机器要快。
谁能帮帮我?
【问题讨论】:
-
你怎么知道它只训练 844 个样本?
-
你能打印
X_train.shape和y_train.shape并分享结果吗? -
@Reza 在我训练模型时,每个 epoch 显示 1/844....有时它会变为随机数,如 938、1644 等。
-
@Grayrigel X_train 的形状:(60000, 28, 28, 1) y_train 的形状:(60000, 10) X_test 的形状:(10000, 28, 28, 1) y_test 的形状:( 10000, 10)如果您想查看整个代码,我可以分享代码的 GitHub 链接
-
@Reza 如果您想查看整个代码,我可以分享代码的 GitHub 链接
标签: python keras neural-network google-colaboratory