此代码示例存在一些问题。缺乏预处理、标签编码、目标编码和不正确的损失函数。我简要介绍了可能的解决方案,但有关更多信息和示例,您可以阅读tutorial 关于时间序列和预测的内容。
解决产生此 ValueError 的具体问题是:LSTM 需要三维输入。它的形状是(batch_size, input_length, dimension)。因此,它至少需要输入一些值 (batch_size, 1, 1) - 但 date.shape 是 (10, 1)。如果你这样做了
date = date.values.reshape((1, 10, 1))
- 它会解决这个问题,但会带来大量其他问题:
date = date.values.reshape((1, 10, 1))
model = Sequential()
model.add(LSTM(24, return_sequences=True, input_shape=(date.shape[1], 1)))
print(model.layers[-1].output_shape)
model.add(Dense(1))
model.compile(loss="mean_squared_error", optimizer="adam")
model.fit(date, task, epochs=100, batch_size=1, verbose=1)
ValueError:输入数组的样本数应与目标数组相同。找到 1 个输入样本和 10 个目标样本。
很遗憾,由于缺乏信息,没有其他问题的答案。但是一些通用的建议。
预处理
不幸的是,您可能不能只是重塑,因为预测并不那么复杂。你应该根据你对下一个任务的预测来选择一些时间。好消息,有定期测量,但每次都有几个任务,这使得任务更难解决。
功能
你应该有一个预测某事的特征。目前尚不清楚这种情况是什么功能,但可能不是日期和时间。甚至之前的任务也可以是一个特征,但你不能只使用任务 id,它需要一些 嵌入,因为它不是一个连续的数值而是一个标签。
嵌入
有一个 keras.layers.Embedding 用于在 keras 中嵌入一些东西。
如果任务数为 4(1、2、3、4)且输出向量的形状为,则可以这样使用:
model = Sequential()
model.add(Embedding(4 + 1, 10, input_length=10)) # + 1 to deal with non-zero indexing
# ... the reso of the code is omitted
- 第一个参数是嵌入项的数量,第二个是输出形状,后者是输入长度(10 只是一个示例值)。
标签编码
可能任务标签只是一个标签,它们之间没有合理的距离或度量 - 即你不能说 1 比 4 更接近 2 等等。这种情况 mse 是无用的,但幸运的是存在一个名为categorical cross-entropy 的概率损失函数,有助于预测数据类别。
要使用它,你应该二值化标签:
import numpy as np
def binarize(labels):
label_map = dict(map(reversed, enumerate(np.unique(labels))))
bin_labels = np.zeros((len(labels), len(label_map)))
bin_labels[np.arange(len(labels)), [label_map[label] for label in labels]] = 1
return bin_labels, label_map
binarized_task, label_map = binarize(task)
binarized_task
Out:
array([[0., 1., 0., 0.],
[1., 0., 0., 0.],
[0., 1., 0., 0.],
[1., 0., 0., 0.],
[0., 0., 0., 1.],
[0., 1., 0., 0.],
[0., 0., 1., 0.],
[0., 1., 0., 0.],
[0., 0., 1., 0.],
[0., 0., 0., 1.]]
label_map
Out:
{1: 0, 2: 1, 3: 2, 4: 3}
- 二值化标签和“任务在二值标签中的位置”的集合。
当然,您应该在带有二值化标签的模型中使用交叉熵损失。此外,最后一层应该使用softmax 激活函数(在关于交叉熵的教程中进行了解释;很快,您将处理标签的概率,因此,它应该总结为一个,并且softmax根据这个要求修改之前的层值):
model.add(Dense(4, activation='softmax'))
model.compile(loss="categorical_crossentropy", optimizer="adam")
model.fit(date, binarized_task, epochs=100, batch_size=1, verbose=1)
“完成”,但可能是毫无意义的示例
这个例子使用了上面列出的所有东西,但它并不假装是完整的或有用的——但我希望它至少是解释性的。
import datetime
import numpy as np
import pandas as pd
import keras
from keras.models import Sequential
from keras.layers import Dense, LSTM, Flatten, Embedding
# Define functions
def binarize(labels):
"""
Labels of shape (size,) to {0, 1} array of the shape (size, n_labels)
"""
label_map = dict(map(reversed, enumerate(np.unique(labels))))
bin_labels = np.zeros((len(labels), len(label_map)))
bin_labels[np.arange(len(labels)), [label_map[label] for label in labels]] = 1
return bin_labels, label_map
def group_chunks(df, chunk_size):
"""
Group task date by periods, train on some columns and use lask ('Tasks') as the target. Function uses 'Tasks' as a features.
"""
chunks = []
for i in range(0, len(df)-chunk_size):
chunks.append(df.iloc[i:i + chunk_size]['Tasks']) # slice period, append
chunks[-1].index = list(range(chunk_size))
df_out = pd.concat(chunks, axis=1).T
df_out.index = df['Date'].iloc[:(len(df) - chunk_size)]
df_out.columns = [i for i in df_out.columns[:-1]] + ['Tasks']
return df_out
# I modify this date for simlicity - now it's a single entry for each datetime
date = pd.DataFrame({
"Date" : [
"06/13/2018 07:20:00 PM",
"06/13/2018 07:20:01 PM",
"06/13/2018 07:20:02 PM",
"06/13/2018 07:20:03 PM",
"06/13/2018 07:20:04 PM",
"06/13/2018 07:20:05 PM",
"06/13/2018 07:20:06 PM",
"06/13/2018 07:20:07 PM",
"06/13/2018 07:20:08 PM",
"06/13/2018 07:20:09 PM"]
})
task = pd.DataFrame({"Tasks": [2, 1, 2, 1, 4, 2, 3, 2, 3, 4]})
date['Tasks'] = task['Tasks']
date['Date'] = date['Date'].map(lambda x: datetime.datetime.strptime(x, "%m/%d/%Y %I:%M:%S %p")) # formatting datetime as datetime
chunk_size = 4
df = group_chunks(date, chunk_size)
# print(df)
"""
0 1 2 Tasks
Date
2018-06-13 19:20:00 2 1 2 1
2018-06-13 19:20:01 1 2 1 4
2018-06-13 19:20:02 2 1 4 2
2018-06-13 19:20:03 1 4 2 3
2018-06-13 19:20:04 4 2 3 2
2018-06-13 19:20:05 2 3 2 3
"""
# extract the train data and target
X = df[list(range(chunk_size-1))].values
y, label_map = binarize(df['Tasks'].values)
# Create a model, compile, fit
model = Sequential()
model.add(Embedding(len(np.unique(X))+1, 24, input_length=X.shape[-1]))
model.add(LSTM(24, return_sequences=True, input_shape=(date.shape[1], 1)))
model.add(Flatten())
model.add(Dense(4, activation='softmax'))
model.compile(loss="categorical_crossentropy", optimizer="adam")
history = model.fit(X, y, epochs=100, batch_size=1, verbose=1)
Out:
Epoch 1/100
6/6 [==============================] - 1s 168ms/step - loss: 1.3885
Epoch 2/100
6/6 [==============================] - 0s 5ms/step - loss: 1.3811
Epoch 3/100
6/6 [==============================] - 0s 5ms/step - loss: 1.3781
...
- 等等。以某种方式工作,但我建议再一次:阅读上面链接的教程(或任何其他预测教程)。因为,例如,我在这个例子中没有涉及测试/验证区域。