【问题标题】:Forecasting time series data with PyBrain Neural Networks使用 PyBrain 神经网络预测时间序列数据
【发布时间】:2015-12-04 12:11:15
【问题描述】:

问题

我正在尝试使用连续 5 年的历史数据来预测下一年的值。

数据结构

我的输入数据 input_04_08 如下所示,其中第一列是一年中的某一天(1 到 365),第二列是记录的输入。

1,2
2,2
3,0
4,0
5,0

我的输出数据 output_04_08 看起来像这样,单列记录了一年中的那一天的输出。

27.6
28.9
0
0
0

然后,我将 0 和 1 之间的值标准化,因此提供给网络的第一个样本看起来像

Number of training patterns:  1825
Input and output dimensions:  2 1
First sample (input, target):
[ 0.00273973  0.04      ] [ 0.02185273]

方法

前馈网络

我在 PyBrain 中实现了以下代码

input_04_08 = numpy.loadtxt('./data/input_04_08.csv', delimiter=',')
input_09 = numpy.loadtxt('./data/input_09.csv', delimiter=',')
output_04_08 = numpy.loadtxt('./data/output_04_08.csv', delimiter=',')
output_09 = numpy.loadtxt('./data/output_09.csv', delimiter=',')

input_04_08 = input_04_08 / input_04_08.max(axis=0)
input_09 = input_09 / input_09.max(axis=0)
output_04_08 = output_04_08 / output_04_08.max(axis=0)
output_09 = output_09 / output_09.max(axis=0)
ds = SupervisedDataSet(2, 1)

for x in range(0, 1825):
    ds.addSample(input_04_08[x], output_04_08[x])

n = FeedForwardNetwork()
inLayer = LinearLayer(2)
hiddenLayer = TanhLayer(25)
outLayer = LinearLayer(1)
n.addInputModule(inLayer)
n.addModule(hiddenLayer)
n.addOutputModule(outLayer)
in_to_hidden = FullConnection(inLayer, hiddenLayer)
hidden_to_out = FullConnection(hiddenLayer, outLayer)
n.addConnection(in_to_hidden)
n.addConnection(hidden_to_out)
n.sortModules()

trainer = BackpropTrainer(n, ds, learningrate=0.01, momentum=0.1)

for epoch in range(0, 100000000): 
    if epoch % 10000000 == 0:
        error = trainer.train()  
        print 'Epoch: ', epoch
        print 'Error: ', error


result = numpy.array([n.activate(x) for x in input_09])

这给了我以下结果,最终错误为 0.00153840123381

诚然,这看起来不错。但是,在阅读了有关 LSTM(长短期记忆)神经网络的更多信息以及对时间序列数据的适用性之后,我正在尝试构建一个。

LSTM 网络

下面是我的代码

input_04_08 = numpy.loadtxt('./data/input_04_08.csv', delimiter=',')
input_09 = numpy.loadtxt('./data/input_09.csv', delimiter=',')
output_04_08 = numpy.loadtxt('./data/output_04_08.csv', delimiter=',')
output_09 = numpy.loadtxt('./data/output_09.csv', delimiter=',')

input_04_08 = input_04_08 / input_04_08.max(axis=0)
input_09 = input_09 / input_09.max(axis=0)
output_04_08 = output_04_08 / output_04_08.max(axis=0)
output_09 = output_09 / output_09.max(axis=0)
ds = SequentialDataSet(2, 1)

for x in range(0, 1825):
    ds.newSequence()
    ds.appendLinked(input_04_08[x], output_04_08[x])


fnn = buildNetwork( ds.indim, 25, ds.outdim, hiddenclass=LSTMLayer, bias=True, recurrent=True)
trainer = BackpropTrainer(fnn, ds, learningrate=0.01, momentum=0.1)

for epoch in range(0, 10000000): 
    if epoch % 100000 == 0:
        error = trainer.train()  
        print 'Epoch: ', epoch
        print 'Error: ', error

result = numpy.array([fnn.activate(x) for x in input_09])

这导致最终误差为 0.000939719502501,但是这一次,当我输入测试数据时,输出图看起来很糟糕。

可能的问题

我在这里查看了几乎所有 PyBrain 问题,这些问题很突出,但并没有帮助我解决问题

我看了几篇博文,对我的理解有所帮助,但显然还不够

当然,我也浏览了 PyBrain 文档,但对于顺序数据集栏 here 找不到太多帮助。

欢迎任何想法/提示/方向。

【问题讨论】:

    标签: python neural-network forecasting pybrain lstm


    【解决方案1】:

    我认为这里发生的情况是您尝试根据一些经验法则分配超参数值,这适用于第一种情况,但不适用于第二种情况。

    1) 您正在查看的误差估计是训练集的乐观预测误差估计。 实际 预测误差很高,但是因为您没有在看不见的数据上测试您的模型,所以无法知道它。 Elements of statistical learning 很好地描述了这种现象。我强烈推荐这本书。您可以免费在线获取。

    2) 要获得具有低预测误差的估计器,您需要执行超参数调整。例如。隐藏节点的数量、学习率和动量应该变化并在看不见的数据上进行测试,以了解哪种组合导致最低的预测误差。 scikit-learnGridSearchCVRandomizedSearchCV 可以做到这一点,但它们只适用于 sklearn 的估计器。不过,您可以滚动自己的估算器,如 the documentation 中所述。个人认为模型选择和模型评估是两个不同的任务。对于第一个,您可以只运行一个 GridSearchCV 或 RandomizedSearchCV 并为您的任务获得一组最佳超参数。对于模型评估,您需要运行更复杂的分析,例如嵌套交叉验证,如果您想要更准确的估计,甚至需要重复嵌套交叉验证。

    3) 我对 LSTM 网络了解不多,但是我看到在第一个示例中您分配了 25 个隐藏节点,但对于 LSTM,您只提供了 5 个。可能学习模式还不够。您也可以像 the example 中所做的那样删除输出偏差。

    附:我想这个问题其实属于http://stats.stackexchange.com,在那里你很可能会得到更详细的问题解答。

    编辑:我刚刚注意到您正在教模型 1000 万个 epoch!我认为这是很多并且可能是过度拟合问题的一部分。我认为实现early stopping 是一个好主意,即如果出现一些预定义的错误,则停止训练。

    【讨论】:

    • 好的,谢谢,我需要考虑很多。我最好开始阅读。我重新运行了具有 25 个隐藏节点的 LSTM,并相应地更新了问题,以便能够更好地与前馈网络进行比较
    猜你喜欢
    • 2014-08-27
    • 2013-02-22
    • 2014-07-02
    • 1970-01-01
    • 2014-11-16
    • 2017-01-25
    • 2011-05-12
    • 2012-09-23
    • 2015-10-12
    相关资源
    最近更新 更多