【问题标题】:Stopping Gradient back prop through a particular layer in keras通过 keras 中的特定层停止 Gradient back prop
【发布时间】:2017-11-29 06:03:36
【问题描述】:
x = Conv2D(768, (3, 3), padding='same', activation='relu', kernel_initializer='normal', 
           name='rpn_conv1',trainable=trainable)(base_layers)

x_class = Conv2D(num_anchors, (1, 1), activation='sigmoid', kernel_initializer='uniform', 
                 name='rpn_out_class',trainable=trainable)(x)

    # stop gradient backflow through regression layer
x_regr = Conv2D(num_anchors * 4, (1, 1), activation='linear', kernel_initializer='zero', 
                name='rpn_out_regress',trainable=trainable)(x)

如何使用 K.stop_gradient() 单独通过回归层 (x_reg) 停止梯度反向传播?

【问题讨论】:

    标签: tensorflow keras gradient object-detection


    【解决方案1】:

    您需要一个Lambda 层来使用自定义函数。

    x_regr_constant = Lambda(
                              lambda x: K.stop_gradient(x), 
                              output_shape=notNecessaryWithTensorflow
                            )(x_regr)
    

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2018-09-11
      • 2019-04-18
      • 2018-09-10
      相关资源
      最近更新 更多