【问题标题】:Generate n-gram from a large corpus从大型语料库生成 n-gram
【发布时间】:2021-06-29 02:03:28
【问题描述】:

我正在使用*语料库 (17G) 和 python 语言来获得一个 n-gram 模型。我用过sklearn.feature_extraction.text.CountVectorizer,但它没有任何进度条或详细选项。有推荐的方法吗?

【问题讨论】:

  • 您是否寻求建议如何使用另一个库创建sklearn的CountVectorizer的输出(因为它需要太长时间),或者显示sklearn的CountVectorizer的进度?
  • 你应该展示你的代码并更好地解释你的目标是什么。 (只是不耐烦不确定CountVectorizer 在做什么,还是别的什么?)
  • 我想确保CountVectorizer 不会花费一周时间来完成语料库。

标签: scikit-learn nlp nltk gensim n-gram


【解决方案1】:

好的。解决方案很简单。编辑源代码,因为代码很容易理解。将 tqdm 添加到 for 循环中。

【讨论】: