【发布时间】:2017-12-03 16:01:09
【问题描述】:
我有一个多标签分类问题,我使用了以下代码,但验证准确率在第一个 epoch 跃升至 99%,考虑到数据的复杂性,这很奇怪,因为输入特征是从初始模型 (pool3:0) 中提取的 2048 ) 层和标签是 [1000],(这里是包含特征样本和标签的文件的链接:https://drive.google.com/file/d/0BxI_8PO3YBPPYkp6dHlGeExpS1k/view?usp=sharing), 我在这里做错了吗??
注意:标签是稀疏向量,仅包含 1 ~ 10 个条目,其余为 0
model.compile(optimizer='adadelta', loss='binary_crossentropy', metrics=['accuracy'])
预测的输出为零!
我在训练模型以影响预测时做错了什么?
#input is the features file and labels file
def generate_arrays_from_file(path ,batch_size=100):
x=np.empty([batch_size,2048])
y=np.empty([batch_size,1000])
while True:
f = open(path)
i = 1
for line in f:
# create Numpy arrays of input data
# and labels, from each line in the file
words=line.split(',')
words=map(float, words[1:])
x_= np.array(words[0:2048])
y_=words[2048:]
y_= np.array(map(int,y_))
x_=x_.reshape((1, -1))
#print np.squeeze(x_)
y_=y_.reshape((1,-1))
x[i]= x_
y[i]=y_
i += 1
if i == batch_size:
i=1
yield (x, y)
f.close()
model = Sequential()
model.add(Dense(units=2048, activation='sigmoid', input_dim=2048))
model.add(Dense(units=1000, activation="sigmoid",
kernel_initializer="uniform"))
model.compile(optimizer='adadelta', loss='binary_crossentropy', metrics=
['accuracy'])
model.fit_generator(generate_arrays_from_file('train.txt'),
validation_data= generate_arrays_from_file('test.txt'),
validation_steps=1000,epochs=100,steps_per_epoch=1000,
verbose=1)
【问题讨论】:
-
生成器是否正确创建了标签?听起来你给模型的真实值都是零。
-
您的数据集统计数据有哪些?如果您的训练数据集太小,您肯定处于过度拟合的情况。如果不是这种情况,您应该尝试应用一些 dropout 以避免过度拟合。
-
@AlessandroSuglia 我们的数据集是 200k 图像,所以它不小,关于 dropout 我尝试过,但我有同样的问题
-
@Daniel 我认为问题出在生成器上,但我确定输入标签并非全为零,我是这样从文件生成的
-
给定示例的类是否独立?也许二进制交叉熵不是最适合您的问题的解决方案。
标签: machine-learning keras sparse-matrix multilabel-classification