【发布时间】:2021-08-30 07:43:54
【问题描述】:
我不知道这是否可行,但我只是想以防万一。这是我的模型的(简化的)架构。
Layer (type) Output Shape Param #Connected to
==========================================
input_1 (InputLayer) [(None, 7, 7, 1024) 0
conv (Conv2D) (None, 7, 7, 10) 10240 input_1[0][0]
“conv”中的 10 个过滤器中的每一个都是 1x1x1024 卷积过滤器(没有偏差,但与这个特定问题无关)。 我目前正在“conv”上使用自定义正则化函数,以确保过滤器权重的 (1x1)x1024x10 矩阵具有很好的属性(基本上所有向量都是成对正交的),到目前为止,一切都按预期工作。 现在,我还希望能够禁用对这 10 个过滤器中的一些过滤器的训练。我知道如何做到这一点的唯一方法是独立实现 10 个过滤器,如下所示
Layer (type) Output Shape Param # Connected to
=========================================================
input_1 (InputLayer) [(None, 7, 7, 1024) 0
conv_1 (Conv2D) (None, 7, 7, 1) 1024 input_1[0][0]
conv_2 (Conv2D) (None, 7, 7, 1) 1024 input_1[0][0]
conv_3 (Conv2D) (None, 7, 7, 1) 1024 input_1[0][0]
...
conv_10 (Conv2D) (None, 7, 7, 1) 1024 input_1[0][0]
后跟一个 Concatenate 层,然后按照我认为合适的方式在每个 conv_i 层上将“可训练”参数设置为 True/False。但是,现在我不知道如何实现我的正则化函数,该函数必须同时而不是独立地计算所有层 conv_i 的权重。 有什么技巧可以用来实现这样的功能吗?或者相反,有没有办法只冻结卷积层的部分权重? 谢谢!
解决方案
对于那些感兴趣的人,这里是我的问题的工作代码,遵循@LaplaceRicky 提供的建议。
class SpecialRegularization(tf.keras.Model):
""" In order to avoid a warning message when saving the model,
I use the solution indicated here
https://github.com/tensorflow/tensorflow/issues/44541
and now inherit from tf.keras.Model instead of Layer
"""
def __init__(self,nfilters,**kwargs):
super().__init__(**kwargs)
self.inner_layers=[Conv2D(1,(1,1)) for _ in range(nfilters)]
def call(self, inputs):
outputs=[l(inputs) for l in self.inner_layers]
self.add_loss(self.define_your_regularization_here())
return tf.concat(outputs,-1)
def set_trainable_parts(self, trainables):
""" Set the trainable attribute independently on each filter """
for l,t in zip(self.inner_layers,trainables):
l.trainable = t
def define_your_regularization_here(self):
#reconstruct the original kernel
large_kernel=tf.concat([l.kernel for l in self.inner_layers],-1)
return tf.reduce_sum(large_kernel*large_kernel[:,:,:,::-1])
【问题讨论】:
标签: tensorflow keras regularized