【问题标题】:Understanding hidden layers, perceptron, MLP了解隐藏层、感知器、MLP
【发布时间】:2019-01-29 03:26:55
【问题描述】:

我是 AI 新手,我正在尝试理解感知器、隐藏层、MLP 等的概念。

在下面的代码中,我想了解我们有多少层,包括输入和输出,隐藏层的数量

embed_layer = Embedding(vocab_size,embed_dim,weights = 
[embedding_matrix],trainable=trainable_param)

input_seq = Input(shape=(X_train_pad.shape[1],))
embed_seq = embed_layer(input_seq)
x = Dense(256,activation ="relu")(embed_seq)
x = Flatten()(x)
preds = Dense(1,activation="sigmoid")(x)

model = Model(input_seq,preds)

下面是模型的总结

【问题讨论】:

    标签: machine-learning neural-network embedding perceptron mlp


    【解决方案1】:

    您可以在此处找到一个很好的示例来解释摘要: https://machinelearningmastery.com/visualize-deep-learning-neural-network-model-keras/

    在您的情况下,您有输入层(基本上只重塑您的输入)、3 个隐藏层(embedding_5-dense_9-flatten_5)和输出层(dense_10)。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2021-01-29
      • 2019-02-01
      • 2013-04-20
      • 2015-10-14
      • 2017-04-12
      • 2015-03-31
      • 2018-07-15
      • 2015-08-14
      相关资源
      最近更新 更多