【发布时间】:2013-06-05 18:06:26
【问题描述】:
我正在从事一项涉及使用机器学习技术的 TREC 任务,其中数据集包含超过 5 TB 的网络文档,计划从中提取词袋向量。 scikit-learn 有一套不错的功能,似乎符合我的需要,但我不知道它是否能很好地扩展以处理大数据。例如,HashingVectorizer 是否能够处理 5 TB 的文档,并行化是否可行?此外,对于大规模机器学习任务,还有哪些替代方案?
【问题讨论】:
-
是的,scikit-learn 会给你最好的答案......逻辑回归也应该满足你的需求
-
在 scikit-learn 中实现的 LogisticRegression 不适用于如此大的数据集:这是 liblinear 的包装器,需要在拟合之前将数据加载到内存中。
-
@ogrisel,sklearn 中的 LogisticRegression 使用二阶优化方法,因此不太适合大规模数据。 SGDClassifier 可能符合条件,但是如何在如此大规模的数据集上进行特征缩放?
标签: python machine-learning scikit-learn