【发布时间】:2019-07-30 16:05:39
【问题描述】:
Andrew Ng 通过将循环层相互堆叠来讨论深度 RNN 架构。然而,他指出,由于结构中已经复杂的时间相关计算,这些通常仅限于 2 或 3 个循环层。但他确实补充说,人们通常在这些循环层之后添加“一堆未水平连接的深层”(显示为从 a[3] 延伸的蓝色框)。我想知道他是否只是在谈论在循环层之上堆叠密集层,还是更复杂?在 Keras 中是这样的:
model = Sequential()
model.add(keras.layers.LSTM(100, return_sequences=True, batch_input_shape=(32, 1, input_shape), stateful=True))
model.add(keras.layers.LSTM(100, return_sequences=False, stateful=True))
model.add(Dense(100, activation='relu'))
model.add(Dense(100, activation='relu'))
model.add(Dense(1, activation='sigmoid'))
【问题讨论】:
-
我能知道在哪里可以找到这门课吗?
-
嘿汤姆,你可以在coursera.org上得到它,我相信那里有免费课程。
标签: keras neural-network lstm