【发布时间】:2019-10-10 01:20:42
【问题描述】:
我正在使用 sklearn.feature_extraction.text 中的 HashingVectorizer 函数,但我不明白它是如何工作的。
我的代码
from sklearn.feature_extraction.text import HashingVectorizer
corpus = [ 'This is the first document.',
'This document is the second document.',
'And this is the third one.',
'Is this the first document?']
vectorizer = HashingVectorizer(n_features=2**3)
X = vectorizer.fit_transform(corpus)
print(X)
我的结果
(0, 0) -0.8944271909999159
(0, 5) 0.4472135954999579
(0, 6) 0.0
(1, 0) -0.8164965809277261
(1, 3) 0.4082482904638631
(1, 5) 0.4082482904638631
(1, 6) 0.0
(2, 4) -0.7071067811865475
(2, 5) 0.7071067811865475
(2, 6) 0.0
(3, 0) -0.8944271909999159
(3, 5) 0.4472135954999579
(3, 6) 0.0
我读了很多关于 Hashing Trick 的论文,比如这篇文章 https://medium.com/value-stream-design/introducing-one-of-the-best-hacks-in-machine-learning-the-hashing-trick-bf6a9c8af18f
我理解这篇文章,但看不出与上面得到的结果的关系。
你能用简单的例子解释一下HashingVectorizer是如何工作的吗
【问题讨论】:
标签: python-3.x scikit-learn nlp vectorization text-classification