【问题标题】:What do negative vectors mean on word2vec?word2vec 上的负向量是什么意思?
【发布时间】:2020-07-10 04:50:39
【问题描述】:

我正在研究旅行评论并使用 word2vec 来分析评论。然而,当我向我的顾问展示我的输出时,他说我有很多带有负向量值的单词,只有带有正值的单词才被认为是合乎逻辑的。

这些负值意味着什么?有没有办法确保我在分析中得到的所有向量值都是正数?

【问题讨论】:

    标签: nlp word2vec word-embedding


    【解决方案1】:

    虽然其他一些单词建模算法实际上确实将单词建模到维度为 0 或正数的空间中,并且单个正维度可能对人类具有明显意义,但原始规范的“word2vec”算法并非如此.

    任何 word2vec 词向量的正面/负面——在特定维度或净大小上——没有强烈的意义。有意义的话会从原点向各个方向展开。此空间中与可识别类别松散相关的方向或邻域可能出现在任何地方,并且相对于任何维度轴倾斜。

    (这是一个确实使用非负约束的相关算法 - https://www.cs.cmu.edu/~bmurphy/NNSE/。但大多数对“word2vec”的引用都指的是经典方法,其中维度有效地覆盖所有实数。)

    【讨论】:

      猜你喜欢
      • 2011-05-27
      • 1970-01-01
      • 1970-01-01
      • 2021-12-29
      • 1970-01-01
      • 2023-03-06
      • 1970-01-01
      • 2015-03-11
      • 1970-01-01
      相关资源
      最近更新 更多