【发布时间】:2020-11-06 19:19:50
【问题描述】:
这个Udacity course notebook 以我不直观的方式对数据进行批处理。
对于长序列的数据,他们首先截断数据,使其可以被batch_size 均分。接下来,他们将.reshape() 的数据变为(batch_size, -1)。然后他们在这些批次的子序列上创建一个滑动窗口。当滑动窗口超出范围时,它们会在末尾添加假数据(通过环绕到)。
提供的这张图可能比我能解释得更好:
我只是想知道这种做法是否正常,或者是否有其他方式。批次是不连续的子序列似乎很奇怪。这不会让解释单个批次的输出变得困难吗?
有没有更好的方法?视频中的女人字面意思是说“我不知道为什么会这样,但我以前见过,网络训练很好”。
【问题讨论】:
标签: machine-learning neural-network pytorch lstm