【发布时间】:2019-02-14 13:16:55
【问题描述】:
对于Skip-gram word2vec的训练样本获取如下:
Sentence: The fox was running across the maple forest
单词fox 给出下对进行训练:
fox-run, fox-across, fox-maple, fox-forest
等等。 CBOW w2v 使用反向方法:
run-fox, across-fox, maple-fox, forest-fox
或forest字:
fox-forest, run-forest, across-forest, maple-forest
所以我们得到了所有的对。如果我们在 CBOW 模式下训练时不指定目标词,那么在使用 gensim 库进行训练期间,Skip-gram word2vec 和 CBOW w2v 有什么区别?在这两种情况下,是否都使用了所有成对的词?
【问题讨论】:
标签: python machine-learning nlp gensim word2vec