【发布时间】:2020-09-13 05:48:48
【问题描述】:
我目前正在尝试训练一个自动编码器,它允许将长度为 128 个整数变量的数组表示为 64 的压缩。该数组包含 128 个整数值,范围从 0 到 255。
我在每个 epoch 使用超过 200 万个数据点训练模型。每个数组的形式如下:[ 1, 9, 0, 4, 255, 7, 6, ..., 200]
input_img = Input(shape=(128,))
encoded = Dense(128, activation=activation)(input_img)
encoded = Dense(128, activation=activation)(encoded)
encoded = Dense(64, activation=activation)(encoded)
decoded = Dense(128, activation=activation)(encoded)
decoded = Dense(128, activation='linear')(decoded)
autoencoder = Model(input_img, decoded)
autoencoder.compile(optimizer='adam', loss='mse')
history = autoencoder.fit(np.array(training), np.array(training),
epochs=50,
batch_size=256,
shuffle=True,
validation_data=(np.array(test), np.array(test)),
callbacks=[checkpoint, early_stopping])
我还会上传一张显示训练和验证过程的图:Loss graph of Training
我怎么可能进一步降低损失。到目前为止我所尝试的(两种选择都没有成功):
- 更长的训练阶段
- 更多层
【问题讨论】:
标签: python deep-learning compression autoencoder