【问题标题】:What's the difference between Skip-gram word2vec and CBOW w2v during training with gensim library?在使用 gensim 库进行训练期间,Skip-gram word2vec 和 CBOW w2v 有什么区别?
【发布时间】:2019-02-14 13:16:55
【问题描述】:

对于Skip-gram word2vec的训练样本获取如下:

Sentence: The fox was running across the maple forest

单词fox 给出下对进行训练:

fox-run, fox-across, fox-maple, fox-forest

等等。 CBOW w2v 使用反向方法:

run-fox, across-fox, maple-fox, forest-fox

forest字:

fox-forest, run-forest, across-forest, maple-forest

所以我们得到了所有的对。如果我们在 CBOW 模式下训练时不指定目标词,那么在使用 gensim 库进行训练期间,Skip-gram word2vec 和 CBOW w2v 有什么区别?在这两种情况下,是否都使用了所有成对的词?

【问题讨论】:

    标签: python machine-learning nlp gensim word2vec


    【解决方案1】:

    只有 skip-gram 使用 (context_word)->(target_word) 形式的训练对。

    在 CBOW 中,训练示例为 (average_of_multiple_context_words)->(target_word)。因此,当来自单个训练示例的错误被反向传播时,多个上下文词会得到相同的纠正推动。

    【讨论】:

    • 谢谢!您能解释一下average_of_multiple_context_words 是什么以及它是如何工作的吗?
    • 我在这里找到了average_of_multiple_context_words analyticsvidhya.com/blog/2017/06/… 的解释,谢谢
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2021-10-22
    • 2019-12-28
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多