【发布时间】:2021-02-05 00:44:52
【问题描述】:
我正在使用 Keras 开发检测器,其中输出 y_true 包含在具有 500 个值的向量“y”中,其中包含一个脉冲,该脉冲指示在信号的 500 个样本内检测到的事件的时间。
Ex: y=[0, 0, 0,....,0,1,1,1,1,1,1,1,1,1,1,1,0,....0,0,0]
我之前曾使用“mse”来处理损失,并且它有效,但我想使用一个损失函数来考虑 y_true 中脉冲的中间值与 y_pred 中的最大值之间的距离。稍后我使用 y_pred 中的最大值对其进行归一化并定义其周围的脉冲。
由于我不能只使用距离并使其可微,我定义了这个自定义损失函数,它用估计的距离对均方误差进行加权。
import tensorflow as tf
import keras.backend as kb
def custom_loss_function (y_true, y_pred):
t_label = []
t_picking = 0
t_label = tf.where(y_true == 1)[:,0]
mayor = tf.reduce_max(y_pred)
t_picking = tf.where(y_pred == mayor)[:,0]
d = tf.cast(abs(t_label[5]-t_picking)/50,tf.float32)
loss = (kb.mean(kb.square(y_true-y_pred)))*d
return loss
其中 t_label[5] 和 t_picking 分别是 y_trye 中脉冲的中间值和 y_pred 中的最大值。而d是它们之间的距离。
我使用此损失函数编译模型,使用 Adam 优化器和 64 的批量大小。 一切正常,模型可以编译,但在训练过程中出现此错误:
InvalidArgumentError: Incompatible shapes: [64] vs. [2]
[[node Adam/gradients/gradients/loss/dense_1_loss/custom_loss_function/weighted_loss/mul_grad/BroadcastGradientArgs (defined at C:\Users\Maca\anaconda3\lib\site-packages\keras\backend\tensorflow_backend.py:3009) ]] [Op:__inference_keras_scratch_graph_2220]
我之前尝试过使用其他自定义损失函数,没有出现这个问题,但我看不到错误来自哪里。
你知道我为什么会收到这个错误吗?我该如何解决?
【问题讨论】:
标签: python tensorflow keras loss-function