【问题标题】:Tensorflow keras Conv1d input_shape problem, can anyone help me?Tensorflow keras Conv1d input_shape 问题,谁能帮帮我?
【发布时间】:2020-11-06 19:59:21
【问题描述】:

我正在尝试重写一个用于对卫星图像进行分类的 keras 模型,该模型是一个 NN 模型,我想将其重写为 CNN,我从 here 找到了该模型。
之前的NN模型是这样的:

model = keras.Sequential([
    keras.layers.Flatten(input_shape=(1, nBands)),
    keras.layers.Dense(14, activation='relu'),
    keras.layers.Dense(2, activation='softmax')])

原图形状是6, 2054, 2044,reshape成二维数组后变成(2519025, 6),根据文章,reshape的原因是:

我们现在将数组的形状更改为二维数组,这是大多数 ML 算法所期望的,其中每一行代表一个像素。

然后它再次被重新塑造,(2519025, 1, 6)
我使用Conv1D 作为这样的转换层

model = keras.Sequential([
    keras.layers.Conv1D(filters=64, kernel_size=(3), activation='relu', padding = 'same',input_shape=(2519025,  6)),
    keras.layers.Dense(128, activation='relu',kernel_initializer='glorot_normal'),
    keras.layers.Dense(2, activation='softmax')])

我这样称呼模型: model.fit(xTrain, yTrain, epochs=2,batch_size=10)

xTrain 和 yTrain 的形状是(2519025, 1, 6) (1679351, 1, 6)

我得到了这个 Waring:

ARNING:tensorflow:Model 是用形状 (None, 2519025, 6) 构造的输入 Tensor("conv1d_input:0", shape=(None, 2519025, 6), dtype=float32),但它是在一个形状不兼容的输入 (None, 1, 6)。

该模型的正确 input_shape 是什么,或者我如何更改该 NN 模型以使用 CNN?

【问题讨论】:

    标签: python tensorflow machine-learning keras deep-learning


    【解决方案1】:

    正如警告所说,网络期望输入的形状为 (None, 2519025, 6) 其中 None 是批量大小,但您的 xTrain 和 yTrain 的形状为 (2519025, 1, 6) (1679351, 1, 6)。您可以尝试以下方法使您的输入形状与网络输入形状相匹配:

    xTrain = xTrain.reshape(2519025, 6)
    

    但是,如果 (2519025, 6) 是单个输入数据的大小,那么您的 xTrain 必须是 (#samples, 2519025, 6) 的大小。此外,两个网络都是具有两个类的分类器,但您提到您的 yTrain 是 (1679351, 1, 6),它必须是 (#samples, 2)。修复输入问题后,您将收到一个单独的错误。

    【讨论】:

    • 谢谢,像你说的那样试过了,现在我得到了这个错误:ValueError: Input 0 of layer sequential is incompatible with the layer: expected ndim=3, found ndim=2. Full shape received: [None, 6]我该如何解决这个问题?
    • 我刚刚看了你提到的那篇文章。有什么理由不使用维度(1,6)吗?这篇文章有点混乱,但 Conv1D 层中的 input_shape=(1, 6) 对我有用。
    猜你喜欢
    • 2021-12-31
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2020-03-17
    • 1970-01-01
    • 2022-08-10
    • 1970-01-01
    • 2022-07-11
    相关资源
    最近更新 更多