【发布时间】:2017-10-14 05:39:58
【问题描述】:
我正在尝试使用深度学习来预测来自约会网站的 15 个自我报告属性的收入。
我们得到了相当奇怪的结果,与我们的训练数据相比,我们的验证数据获得了更高的准确性和更低的损失。这在不同大小的隐藏层中是一致的。 这是我们的模型:
for hl1 in [250, 200, 150, 100, 75, 50, 25, 15, 10, 7]:
def baseline_model():
model = Sequential()
model.add(Dense(hl1, input_dim=299, kernel_initializer='normal', activation='relu', kernel_regularizer=regularizers.l1_l2(0.001)))
model.add(Dropout(0.5, seed=seed))
model.add(Dense(3, kernel_initializer='normal', activation='sigmoid'))
model.compile(loss='categorical_crossentropy', optimizer='adamax', metrics=['accuracy'])
return model
history_logs = LossHistory()
model = baseline_model()
history = model.fit(X, Y, validation_split=0.3, shuffle=False, epochs=50, batch_size=10, verbose=2, callbacks=[history_logs])
这是准确性和损失的示例: 和 。
我们已尝试移除正则化和 dropout,正如预期的那样,这会导致过度拟合(训练 acc:~85%)。我们甚至尝试大幅降低学习率,结果相似。
有没有人看到类似的结果?
【问题讨论】:
-
我现在已经多次遇到同样的问题。 stats.stackexchange.com/questions/372146/… .. 任何帮助表示赞赏
标签: tensorflow machine-learning neural-network keras classification