【发布时间】:2020-08-24 11:48:44
【问题描述】:
谁能解释一下输入和输出以及下面提到的层的工作
model.add(Embedding(total_words, 64, input_length=max_sequence_len-1))
total_words = 263
max_sequence_len=11
是64,维数吗?
以及为什么这一层的输出是(None, 10, 64)
不应该是每个词的64维向量,即(None, 263, 64)
【问题讨论】:
-
嗨。这似乎是一个编程问题。对?在这种情况下,它在这里是题外话,你应该在 Stack Overflow 上问它。请阅读ai.stackexchange.com/help/on-topic。
标签: machine-learning deep-learning nlp tensorflow python