【发布时间】:2020-07-10 04:50:39
【问题描述】:
我正在研究旅行评论并使用 word2vec 来分析评论。然而,当我向我的顾问展示我的输出时,他说我有很多带有负向量值的单词,只有带有正值的单词才被认为是合乎逻辑的。
这些负值意味着什么?有没有办法确保我在分析中得到的所有向量值都是正数?
【问题讨论】:
标签: nlp word2vec word-embedding
我正在研究旅行评论并使用 word2vec 来分析评论。然而,当我向我的顾问展示我的输出时,他说我有很多带有负向量值的单词,只有带有正值的单词才被认为是合乎逻辑的。
这些负值意味着什么?有没有办法确保我在分析中得到的所有向量值都是正数?
【问题讨论】:
标签: nlp word2vec word-embedding
虽然其他一些单词建模算法实际上确实将单词建模到维度为 0 或正数的空间中,并且单个正维度可能对人类具有明显意义,但原始规范的“word2vec”算法并非如此.
任何 word2vec 词向量的正面/负面——在特定维度或净大小上——没有强烈的意义。有意义的话会从原点向各个方向展开。此空间中与可识别类别松散相关的方向或邻域可能出现在任何地方,并且相对于任何维度轴倾斜。
(这是一个确实使用非负约束的相关算法 - https://www.cs.cmu.edu/~bmurphy/NNSE/。但大多数对“word2vec”的引用都指的是经典方法,其中维度有效地覆盖所有实数。)
【讨论】: