【问题标题】:Accuracy does not go up on a keras modelkeras 模型的准确度没有上升
【发布时间】:2017-05-26 19:30:55
【问题描述】:

我正在尝试根据 kaggle 上希格斯玻色子挑战的数据训练模型。我决定做的第一件事是创建一个简单的 keras 模型。我尝试了不同的层数和宽度、不同的成本函数、不同的优化器、不同的神经元函数,但训练集的准确率始终在 0.65-0.7 范围内。我真的不明白为什么。这是我的一个模型的例子,它工作得非常奇怪:

from keras.layers import Dense, merge, Activation, Dropout
from keras.models import Model
from keras.models import Sequential
from keras.optimizers import SGD

model = Sequential()
model.add(Dense(600, input_shape=(30,),activation="relu"))
model.add(Dropout(0.5))
model.add(Dense(400, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(100, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(1, activation='sigmoid'))
sgd = SGD(lr=0.01, decay=1e-6)
model.compile(optimizer='rmsprop',loss='binary_crossentropy',metrics=['accuracy'])
model.fit(train,labels,nb_epoch=1,batch_size=1)

我也尝试了更大的模型,也得到了这样的准确性。请告诉我我做错了什么。

编辑

我已经尝试用 100 个 epoch 和批量大小 0f 100 训练这个模型,并且损失等于 4.9528,准确度再次达到 0.6924。而且它总是为每个示例输出零。

【问题讨论】:

  • 您的编辑评论显示您的数据不平衡,这是一个问题。要么平衡数据中的两个类,要么在 fit 函数中使用 class_weight。

标签: machine-learning neural-network keras


【解决方案1】:

问题源于您的模型总是输出多数类。这不是加权问题(其中一个类出现的次数多于另一个),而且您的网络似乎“学会”了始终输出相同的类。

尝试使用不同的分类器(例如随机森林),您会发现准确度要好得多。

from sklearn.ensemble import RandomForestClassifier
rf = RandomForestClassifier()
rf.fit(X_train, y_train)

在尝试解决神经网络问题时,我使用 SMOTE 来平衡训练数据集。您应该使用“adam”作为分类的优化器。此外,更小的网络架构应该足以解决这个问题。

from keras.layers import Dense, Dropout
from keras.models import Sequential
import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
from imblearn.over_sampling import SMOTE

df = pd.read_csv("training.csv")
y = np.array(df['Label'].apply(lambda x: 0 if x=='s' else 1))
X = np.array(df.drop(["EventId","Label"], axis=1))
sm = SMOTE()

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3)
X_res, y_res = sm.fit_sample(X_train, y_train)

model = Sequential()
model.add(Dense(25, input_shape=(31,),activation="relu"))
model.add(Dropout(0.5))
model.add(Dense(10, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(1, activation='sigmoid'))
model.compile(optimizer="adam",loss='binary_crossentropy',metrics=['accuracy'])
model.fit(X_res, y_res,validation_data=(X_test, y_test),nb_epoch=100,batch_size=100)

示例结果:

    Epoch 11/100
230546/230546 [==============================] - 5s - loss: 0.5146 - acc: 0.7547 - val_loss: 0.3365 - val_acc: 0.9138
Epoch 12/100
230546/230546 [==============================] - 5s - loss: 0.4740 - acc: 0.7857 - val_loss: 0.3033 - val_acc: 0.9270
Epoch 13/100
230546/230546 [==============================] - 5s - loss: 0.4171 - acc: 0.8295 - val_loss: 0.2821 - val_acc: 0.9195

【讨论】:

    【解决方案2】:

    你的训练时间太短了

    model.fit(train,labels,nb_epoch=1,batch_size=1)

    这意味着您将一次浏览数据,而且批次非常小,应该是

    model.fit(train, labels, nb_epoch=100, batch_size=100)
    

    【讨论】:

    • 我已经尝试了 100 个 epoch,批量大小为 100,准确度再次为 0.6924,而损失为 4.9528。然而它现在总是预测为 0。
    猜你喜欢
    • 2021-07-27
    • 2020-11-20
    • 1970-01-01
    • 1970-01-01
    • 2021-06-24
    • 2020-05-27
    • 1970-01-01
    • 2019-06-11
    • 2020-11-22
    相关资源
    最近更新 更多