【发布时间】:2020-08-16 10:45:25
【问题描述】:
model = tf.keras.Sequential([tf.keras.layers.Embedding(tokenizer.vocab_size, 64),tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(64,return_sequences=True))
tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(32)),
tf.keras.layers.Dense(64, activation='relu'),
tf.keras.layers.Dense(1, activation='sigmoid')
])
第二层有 64 个隐藏单元,由于 return_sequences=True,它也会输出 64 个序列。但是如何将其馈送到 32 个隐藏单元的 LSTM。不会导致形状不匹配错误吗?
【问题讨论】:
标签: tensorflow keras deep-learning lstm recurrent-neural-network