【问题标题】:Training loss and validation loss in convolutional auto encoder is not decreasing much卷积自动编码器中的训练损失和验证损失没有减少太多
【发布时间】:2016-10-19 03:20:58
【问题描述】:

为什么卷积自动编码器中的训练损失和验证损失没有减少。训练数据的维度为10496x1024CAE 使用keras 中的32x32 大小的图像块进行训练。我已经尝试过l2regularization,但没有多大帮助。我正在训练 20 个 epoch。还有什么其他选择?

输出:

Epoch 1/20 10496/10496 [========] - 52s - 损失:0.4029 - val_loss: 0.3821

纪元 2/20 10496/10496 [========] - 52s - 损失:0.3825 - val_loss: 0.3784

Epoch 3/20 10496/10496 [=======] - 52s - 损失:0.3802 - val_loss: 0.3772

Epoch 4/20 10496/10496 [=======] - 51s - 损失:0.3789 - val_loss: 0.3757

Epoch 5/20 10496/10496 [=======] - 52s - 损失:0.3778 - val_loss: 0.3752

Epoch 6/20 10496/10496 [=======] - 51s - 损失:0.3770 - val_loss: 0.3743

纪元 7/20 10496/10496 [=======] - 54s - 损失:0.3763 - val_loss: 0.3744

Epoch 8/20 10496/10496 [=======] - 51s - 损失:0.3758 - val_loss: 0.3735

纪元 9/20 10496/10496 [=======] - 51s - 损失:0.3754 - val_loss: 0.3731

Epoch 10/20 10496/10496 [=======] - 51s - 损失:0.3748 - val_loss: 0.3739

Epoch 11/20 10496/10496 [=======] - 51s - 损失:0.3745 - val_loss: 0.3729

Epoch 12/20 10496/10496 [=======] - 54s - 损失:0.3741 - val_loss: 0.3723

Epoch 13/20 10496/10496 [=======] - 51s - 损失:0.3736 - val_loss: 0.3718

Epoch 14/20 10496/10496 [=======] - 52s - 损失:0.3733 - val_loss: 0.3716

Epoch 15/20 10496/10496 [=======] - 52s - 损失:0.3731 - val_loss: 0.3717

Epoch 16/20 10496/10496 [=======] - 51s - 损失:0.3728 - val_loss: 0.3712

Epoch 17/20 10496/10496 [=======] - 49s - 损失:0.3725 - val_loss: 0.3709

Epoch 18/20 10496/10496 [=======] - 36s - 损失:0.3723 - val_loss: 0.3710

Epoch 19/20 10496/10496 [=======] - 37s - 损失:0.3721 - val_loss: 0.3708

Epoch 20/20 10496/10496 ========] - 37s - 损失:0.3720 - val_loss: 0.3704

【问题讨论】:

  • 没有您的网络架构,就无法回答您的问题。看起来您的模型不够复杂,无法处理您的数据,因此这两个错误都很大。

标签: machine-learning deep-learning keras conv-neural-network


【解决方案1】:

您的网络仍在学习,并且在第 20 轮时并没有减慢很多。如果您有足够的数据,您可以尝试更高的学习率,并使用提前停止方法的更多轮次。 这种方法也可以应用于正则化方法和 k 折交叉验证。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 2018-03-17
    • 2019-08-18
    • 2017-08-14
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2019-11-29
    相关资源
    最近更新 更多