【发布时间】:2019-03-15 00:52:49
【问题描述】:
由于我是深度学习的新手,这个问题可能对您来说很有趣。但我无法在脑海中想象它。这就是为什么我要问它。
我将一个句子作为 LSTM 的向量,我认为我有一个包含 10 个单词的句子。然后我把这些句子改成向量,交给 LSTM。
LSTM 单元的长度应该是 10。但是在大多数教程中,我看到他们添加了 128 个隐藏状态。我无法理解和想象它。 LSTM层用"128-dimensional hidden state"这个词是什么意思
例如:
X = LSTM(128, return_sequences=True)(embeddings)
这个造型的夏天
lstm_1 (LSTM) (None, 10, 128) 91648
这里看起来像添加了 10 个 LSTM 单元,但为什么那里有 128 个隐藏状态?希望你能理解我的期望。
【问题讨论】:
标签: python tensorflow keras nlp lstm