【问题标题】:sampled_softmax_loss vs negative samplingsampled_softmax_loss 与负采样
【发布时间】:2018-05-03 12:53:07
【问题描述】:

我正在研究文本自动编码器,因此想使用负采样来训练我们的模型。我想知道负采样和采样softmax的区别。

提前致谢

【问题讨论】:

    标签: tensorflow deep-learning data-science autoencoder


    【解决方案1】:

    https://www.tensorflow.org/extras/candidate_sampling.pdf

    根据tensorflow负采样与逻辑损失有关,而采样softmax与softmax有关。

    它们两者的核心都是选择一个负样本样本来计算损失并更新梯度。

    对于您的模型,如果您的输出非常大(许多类)并且常规损失太慢而无法计算,请使用它。如果输出的类别很少,则收益不大。如果无论如何训练很快,为什么还要使用近似值。

    【讨论】:

      猜你喜欢
      • 2018-03-17
      • 2023-01-12
      • 2022-12-18
      • 2023-03-18
      • 2016-09-02
      • 1970-01-01
      • 2019-09-03
      • 2013-10-20
      • 1970-01-01
      相关资源
      最近更新 更多