【问题标题】:Row-wise cross entropy loss in 3D tensor3D 张量中的逐行交叉熵损失
【发布时间】:2017-11-27 20:39:04
【问题描述】:

我有一个循环神经网络,它输出形状为[sequence_length, batch_size, num_classes] 的输出,我想将softmax_cross_entropy_with_logits 应用于序列的每个时间戳,或者如果你愿意的话,应用于每一行(正确的标签是相同的形状) .如果不迭代可能真的很慢的序列长度,这怎么可能?

在我们做的时候如何做到准确?

【问题讨论】:

    标签: tensorflow


    【解决方案1】:

    显然,广播能够很好地处理这个问题。由于格式错误的 logits 和标签,我遇到了问题。

    【讨论】:

      猜你喜欢
      • 2020-12-18
      • 2021-08-25
      • 2018-06-10
      • 2017-08-19
      • 2018-09-03
      • 2016-08-01
      • 2018-04-14
      • 2019-06-19
      • 2018-02-05
      相关资源
      最近更新 更多