【发布时间】:2020-07-30 05:59:59
【问题描述】:
我有 50 个时间序列,每个都有至少 500 个数据点(有些系列有多达 2000 多个数据点)。所有时间序列的值都从 1.089 变为 0.886,因此您可以看到每个数据集的分辨率都接近 10e-4,即数据类似于:
对于所有 50 个时间序列,1.079299、1.078809、1.078479、1.078389、1.078362 等等以从 1.089 到 0.886 的递减方式。
因此,我的问题是:
- LSTM 可以处理这种密集数据吗?
- 为了避免过度拟合,建议的epochs、每批次的时间步长、批次、隐藏层和每层神经元的数量是多少?
我已经为此苦苦挣扎了一个多星期,我找不到其他有关此特定案例的消息来源,因此它也可以帮助其他人。
【问题讨论】:
标签: python keras deep-learning time-series lstm