【发布时间】:2018-07-20 21:14:16
【问题描述】:
我目前正在通过谷歌的TensorFlow cookbook:
这是skip-gram模型的TensorFlow实现。
在第272行,作者决定对相似度矩阵(-sim[j, :])进行负乘。我有点困惑,为什么我们需要在 skip-gram 模型中对相似度矩阵进行负相乘。有任何想法吗?
for j in range(len(valid_words)):
valid_word = word_dictionary_rev[valid_examples[j]]
top_k = 5 # number of nearest neighbors
**nearest = (-sim[j, :]).argsort()[1:top_k+1]**
log_str = "Nearest to {}:".format(valid_word)
for k in range(top_k):
close_word = word_dictionary_rev[nearest[k]]
score = sim[j,nearest[k]]
log_str = "%s %s," % (log_str, close_word)
print(log_str)
【问题讨论】:
标签: numpy tensorflow machine-learning nlp word2vec