【问题标题】:Batch-size dimension not honored when composing models组合模型时不考虑批量尺寸
【发布时间】:2018-11-15 10:19:23
【问题描述】:

我有一个 Keras 模型,我在训练期间定义为:

   img = keras.Input(shape=[65, 65, 2])
   bnorm = keras.layers.BatchNormalization()(img)
   ...
   model = keras.Model(img, outputprob)

不过,在服务期间,我的输入有所不同。因此,我定义了一个输入层(验证 to_img 形状是否也是 (65, 65, 2))并尝试使用以下方法进行模型合成:

  to_img = keras.layers.Lambda(...)(json_input)
  model_output = model(to_img)
  serving_model = keras.Model(json_input, model_output)

但是,我收到此错误:

tensorflow.python.framework.errors_impl.InvalidArgumentError:
 Shape must be rank 4 but is rank 3 for 
'model/batch_normalization/cond/FusedBatchNorm' (op:
 'FusedBatchNorm') with input shapes: [65,65,2],
 [2], [2], [0], [0].

这似乎表明批次维度没有通过。为什么?

编辑: 我尝试过的事情:

(1) 在所有层中显式设置trainable=False,但这似乎没有任何区别:

  model_core = model
  for layer in model_core.layers:
    layer.trainable = False
  model_output = model_core(to_img)

(2) 尝试扩展 preproc 的结果:

   to_img = keras.layers.Lambda(
      lambda x : preproc(x))(json_input)
   to_img = keras.layers.Lambda( 
      lambda x : tf.expand_dims(x, axis=0) )(to_img)

这会导致错误:AttributeError: 'Model' object has no attribute '_name' 在线 serving_model = keras.Model(json_input, model_output)

(3) 将 lambda 层改为做一个 map_fn 来单独处理数据:

to_img = keras.layers.Lambda(
    lambda items: K.map_fn(lambda x: preproc, items))(json_input)

这导致了一个形状错误,表明 preproc 函数正在获取 [65,2] 项而不是 [65,65,2]。这表明 Lambda 层一次将函数应用于示例。

(4) 以下是模型的完整代码:

  img = keras.Input(shape=[height, width, 2])

  # convolutional part of model
  cnn = keras.layers.BatchNormalization()(img)
  for layer in range(nlayers):
    nfilters = nfil * (layer + 1)
    cnn = keras.layers.Conv2D(nfilters, (ksize, ksize), padding='same')(cnn)
    cnn = keras.layers.Activation('elu')(cnn)
    cnn = keras.layers.BatchNormalization()(cnn)
    cnn = keras.layers.MaxPooling2D(pool_size=(2, 2))(cnn)
  cnn = keras.layers.Flatten()(cnn)
  cnn = keras.layers.Dropout(dprob)(cnn)
  cnn = keras.layers.Dense(10, activation='relu')(cnn)

  # feature engineering part of model
  engfeat = keras.layers.Lambda(
    lambda x: engineered_features(x, height//2))(img)

  # concatenate the two parts
  both = keras.layers.concatenate([cnn, engfeat])
  ltgprob = keras.layers.Dense(1, activation='sigmoid')(both)

  # create a model
  model = keras.Model(img, ltgprob)
  def rmse(y_true, y_pred):
    import tensorflow.keras.backend as K
    return K.sqrt(K.mean(K.square(y_pred - y_true), axis=-1))
  optimizer = tf.keras.optimizers.Adam(lr=params['learning_rate'],
                                       clipnorm=1.)
  model.compile(optimizer=optimizer,
                loss='binary_crossentropy',
                metrics=['accuracy', 'mse', rmse])

以及预处理函数的代码:

def reshape_into_image(features, params):
  # stack the inputs to form a 2-channel input
  # features['ref'] is [-1, height*width]
  # stacked image is [-1, height*width, n_channels]
  n_channels = 2
  stacked = tf.concat([features['ref'], features['ltg']], axis=1)
  height = width = PATCH_SIZE(params)
  return tf.reshape(stacked, [height, width, n_channels])

和服务层:

  # 1. layer that extracts multiple inputs from JSON
  height = width = PATCH_SIZE(hparams)
  json_input = keras.layers.concatenate([
    keras.layers.Input(name='ref', dtype=tf.float32, shape=(height * width,)),
    keras.layers.Input(name='ltg', dtype=tf.float32, shape=(height * width,)),
  ], axis=0)

  # 2. convert json_input to image (what model wants)
  to_img = keras.layers.Lambda(
    lambda x: reshape_into_image(features={
      'ref': tf.reshape(x[0], [height * width, 1]),
      'ltg': tf.reshape(x[1], [height * width, 1])
    }, params=hparams),
    name='serving_reshape')(json_input)


  # 3. now, use trained model to predict
  model_output = model(to_img)

  # 4. create serving model
  serving_model = keras.Model(json_input, model_output)

【问题讨论】:

    标签: python tensorflow machine-learning keras keras-layer


    【解决方案1】:

    考虑到样本轴,模型的输入形状为(?, 65, 65, 2),其中? 可以是一个或多个。因此,您需要修改 Lambda 层(实际上是封装在其中的函数),使其输出也为 (?, 65, 65, 2)。一种方法是在包装函数中使用K.expand_dims(out, axis=0),以便输出的形状为(1, 65, 65, 2)

    顺便说一句,K 指的是后端:from keras import backend as K

    此外,请注意,您必须定义由 Lambda 包装的函数,以便它保留批处理轴;否则,你很可能在该函数的定义中做错了什么。

    更新:

    由于您将 json_input 作为模型的输入传递,因此引发了错误 AttributeError: 'Model' object has no attribute '_name'。但是,它不是输入层。相反,它是concatenation 层的输出。要解决这个问题,首先定义输入层,然后将它们传递给concatenation 层和Model 类,如下所示:

    inputs = [keras.layers.Input(name='ref', dtype=tf.float32, shape=(height * width,)), 
              keras.layers.Input(name='ltg', dtype=tf.float32, shape=(height * width,))]
    
    json_input = keras.layers.concatenate(inputs, axis=0)
    
    # ...
    serving_model = keras.Model(inputs, model_output)
    

    更新 2: 我认为你可以写得更简单,而且不会遇到太多不必要的麻烦。你想从两个形状为(?, h*w) 的张量变成一个形状为(?, h, w, 2) 的张量。您可以使用Reshape 层,这样可以:

    from keras.layers import Reshape
    
    inputs = [keras.layers.Input(name='ref', dtype=tf.float32, shape=(height * width,)), 
              keras.layers.Input(name='ltg', dtype=tf.float32, shape=(height * width,))]
    
    reshape_layer = Reshape((height, width, 1))
    r_in1 = reshape_layer(inputs[0])
    r_in2 = reshape_layer(inputs[1])
    img = concatenate([r_in1, r_in2])
    
    output = model(img)
    
    serving_model = keras.Model(inputs, output)
    

    不需要任何自定义函数或 Lambda 层。

    顺便说一下,如果你有兴趣知道,批量移除轴的麻烦是由这行引起的:

    return tf.reshape(stacked, [height, width, n_channels])
    

    你在重塑时没有考虑批处理轴。

    【讨论】:

    • @Lak 正如我所提到的,它必须保留批处理轴,否则这表明您做错了什么。至于名称错误,一个可能的原因是未指定的输入形状。您能否编辑您的问题并添加带有您收到的错误的全新代码? 不要删除之前的信息,只需在最后添加您的编辑即可。
    • 感谢您的建议。我已经用我尝试过的东西编辑了这篇文章。
    • @Lak 谢谢,但我说的是整个代码,至少是整个模型定义;从输入层到构造Model 实例。那是因为错误似乎是由您定义模型的方式引起的,因此如果我们没有整个模型的代码并检查其结构,我们将无法为您提供正确的答案。
    • 现在也添加了模型
    • @Lak 更新了我的答案。请看一看。
    猜你喜欢
    • 1970-01-01
    • 2020-10-02
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2022-07-21
    相关资源
    最近更新 更多