【问题标题】:Why does word2vec outperform other neural network methods?为什么 word2vec 优于其他神经网络方法?
【发布时间】:2019-03-25 06:05:37
【问题描述】:

为什么 word2vec 优于其他神经网络方法?

Word2vec 比其他神经网络方法(NNLM、RNNLM 等)更浅。

可以解释一下吗?

我想知道它是否因为 word2vec 模型不包含隐藏层(激活函数如 sigmoid 等)而遭受任何缺点?

【问题讨论】:

  • 你如何比较它们(哪个衡量标准)?
  • 按准确度衡量?(在 2013a word2vec 论文中)
  • 你认为我们都知道那篇论文,你引用的结果和方法?它每 6 个月更改一次(甚至更快),2013 年有点老了。我可以找到 5 篇使用不同语言模型在各种指标上击败 word2vec 的论文。他们都说他们是最好的。如果您有这类问题,请引用您的资料并更好地解释您的问题的背景:)

标签: neural-network word2vec word-embedding


【解决方案1】:

据我目前所了解,去除隐藏层确实会影响准确性。但是,它会带来很高的计算增益,我们可以使用该模型在比以前可能的更大的数据集上进行训练。该模型的要点是,在更多数据上训练一个简单的模型比使用更小数据集的更昂贵的模型得到更好的结果。

【讨论】:

    猜你喜欢
    • 2014-10-01
    • 2011-07-24
    • 1970-01-01
    • 2018-12-28
    • 2012-12-29
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2017-01-14
    相关资源
    最近更新 更多