【发布时间】:2016-10-19 18:49:29
【问题描述】:
我目前正在尝试了解 word2vec 神经网络学习算法背后的架构,用于根据上下文将单词表示为向量。
在阅读Tomas Mikolov paper 之后,我发现了他定义的投影层。尽管这个术语在提到 word2vec 时被广泛使用,但我无法找到它在神经网络上下文中实际含义的精确定义。
我的问题是,在神经网络环境中,什么是投影层?它是给与先前节点的链接共享相同权重的隐藏层的名称吗?它的单位真的有某种激活功能吗?
另一个更广泛地涉及该问题的资源可以在this tutorial 中找到,它也涉及到第 67 页周围的投影层。
【问题讨论】:
-
“本教程”链接失效!
-
“Using Neural Networks for Modeling and Representing Natural Languages”教程链接,问题中的那个不起作用:site.uottawa.ca/~diana/csi5386/…
标签: machine-learning nlp neural-network word2vec