【问题标题】:ValueError: Input 0 of layer sequential_40 is incompatible with the layerValueError: 层序号_40 的输入 0 与层不兼容
【发布时间】:2021-04-18 03:18:41
【问题描述】:

我正在修改旧代码,将注意力层添加到模型中。但我无法弄清楚如何以正确的输入大小堆叠图层。

实际输入数据为 (200,189,1)。

//我正在尝试这样的事情

def mocap_model(optimizer='SGD'):
    model = Sequential()
    model.add(Conv2D(32, 3, strides=(2, 2), padding ='same', input_shape=(200, 189, 1)))
    model.add(Dropout(0.2))
    model.add(Activation('relu'))
    model.add(Conv2D(64, 3, strides=(2, 2), padding ='same'))
    model.add(Dropout(0.2))
    model.add(Activation('relu'))
    model.add(Conv2D(64, 3, strides=(2, 2), padding ='same'))
    model.add(Dropout(0.2))
    model.add(Activation('relu'))
    model.add(Conv2D(128, 3, strides=(2, 2), padding ='same'))
    model.add(Dropout(0.2))
    model.add(Flatten())

    return model

cnn = mocap_model()
    
main_input = Input(shape=(200, 189, 1))
    
rnn = Sequential()
rnn = LSTM(256, return_sequences=True, input_shape=(200,189))
    
model = TimeDistributed(cnn)(main_input) 
model = rnn(model)
    
att_in=LSTM(256,return_sequences=True,dropout=0.3,recurrent_dropout=0.2)(model)
att_out=attention()(att_in)
output3=Dense(256,activation='relu',trainable=True)(att_out)
output4=Dense(4,activation='softmax',trainable=True)(output3)
model=Model(main_input,output4)
    
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
model.summary()

但我收到此错误:

----> 8 model = TimeDistributed(cnn)(main_input)

ValueError:layersequential_40 的输入 0 与 layer 不兼容::预期 min_ndim=4,发现 ndim=3。收到的完整形状:(None, 189, 1)

【问题讨论】:

  • 尝试从输入形状中删除 200 所以input_shape = (189,1)
  • @ML_Engine 执行此操作时出现此错误:conv2d_4 层的输入 0 与层不兼容::预期 min_ndim=4,发现 ndim=3。收到的完整形状:(无,189, 1)。我传递给 model.fit 的实际输入形状是 -->(4936, 200, 189, 1)

标签: python tensorflow machine-learning keras recurrent-neural-network


【解决方案1】:

输入形状的问题。 tf.keras.layers.TimeDistributed 期望批量大小作为输入。期望输入:形状为(batch, time, ...) 的输入张量。 在 main_input 中添加 batch_size

main_input = Input(shape=(10, 200, 189, 1))

工作示例代码

import tensorflow as tf

cnn = tf.keras.Sequential()
cnn.add(tf.keras.layers.Conv2D(64, 1, 1, input_shape=(200, 189, 1)))
cnn.add(tf.keras.layers.Flatten())
cnn.output_shape

main_input = tf.keras.Input(shape=(10, 200, 189, 1))
outputs = tf.keras.layers.TimeDistributed(cnn)(main_input)
outputs.shape

输出

TensorShape([None, 10, 2419200])

【讨论】:

    猜你喜欢
    • 2021-07-04
    • 2021-05-31
    • 2020-11-28
    • 2021-09-13
    • 1970-01-01
    • 2021-08-31
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多