【问题标题】:Error in batch size with custom loss function in KerasKeras中自定义损失函数的批量大小错误
【发布时间】:2021-02-05 00:44:52
【问题描述】:

我正在使用 Keras 开发检测器,其中输出 y_true 包含在具有 500 个值的向量“y”中,其中包含一个脉冲,该脉冲指示在信号的 500 个样本内检测到的事件的时间。

Ex: y=[0, 0, 0,....,0,1,1,1,1,1,1,1,1,1,1,1,0,....0,0,0]

我之前曾使用“mse”来处理损失,并且它有效,但我想使用一个损失函数来考虑 y_true 中脉冲的中间值与 y_pred 中的最大值之间的距离。稍后我使用 y_pred 中的最大值对其进行归一化并定义其周围的脉冲。

由于我不能只使用距离并使其可微,我定义了这个自定义损失函数,它用估计的距离对均方误差进行加权。

import tensorflow as tf
import keras.backend as kb

def custom_loss_function (y_true, y_pred):
    
    t_label = []
    t_picking = 0    
    t_label = tf.where(y_true == 1)[:,0]    
    mayor = tf.reduce_max(y_pred)
    t_picking = tf.where(y_pred == mayor)[:,0]    
    d = tf.cast(abs(t_label[5]-t_picking)/50,tf.float32)

    loss = (kb.mean(kb.square(y_true-y_pred)))*d

    return loss

其中 t_label[5] 和 t_picking 分别是 y_trye 中脉冲的中间值和 y_pred 中的最大值。而d是它们之间的距离。

我使用此损失函数编译模型,使用 Adam 优化器和 64 的批量大小。 一切正常,模型可以编译,但在训练过程中出现此错误:

InvalidArgumentError:  Incompatible shapes: [64] vs. [2]
 [[node Adam/gradients/gradients/loss/dense_1_loss/custom_loss_function/weighted_loss/mul_grad/BroadcastGradientArgs (defined at C:\Users\Maca\anaconda3\lib\site-packages\keras\backend\tensorflow_backend.py:3009) ]] [Op:__inference_keras_scratch_graph_2220]

我之前尝试过使用其他自定义损失函数,没有出现这个问题,但我看不到错误来自哪里。

你知道我为什么会收到这个错误吗?我该如何解决?

【问题讨论】:

    标签: python tensorflow keras loss-function


    【解决方案1】:

    特定批次中有两个相等的最大值。所以你的t_picking 有时(很少)有两个(甚至更多)值而不是一个。

    【讨论】:

    • 你是对的。我没有考虑相同最大值的可能性。我改变了它,现在它使用第一个最大值,错误消失了。谢谢!
    猜你喜欢
    • 2020-03-02
    • 2021-07-23
    • 1970-01-01
    • 1970-01-01
    • 2019-06-24
    • 1970-01-01
    • 2019-03-10
    • 2017-12-20
    • 1970-01-01
    相关资源
    最近更新 更多