【发布时间】:2019-02-01 14:34:43
【问题描述】:
word2vec 的 skip-gram 模型使用浅层神经网络来学习带有(输入词、上下文词)数据的词嵌入。当我阅读skip-gram模型的教程时,没有任何关于N-gram的提及。然而,我遇到了几个在线讨论,其中有人声称 --- word2vec 中的 skip-gram 模型是 N-Gram 模型的扩展版本。我也不太理解以下维基百科页面中的“k-skip-n-gram”。
Wikipedia 引用了 1992 年关于“skip-grams”的论文,所以我猜这不是 word2vec 的 skip-gram 模型,对吧?关于这个“skip-grams”的另一篇论文是https://homepages.inf.ed.ac.uk/ballison/pdf/lrec_skipgrams.pdf。这非常令人困惑。为什么没有人澄清这一点。
维基百科来源及网上讨论如下:
【问题讨论】:
标签: neural-network nlp word2vec