【问题标题】:error: object Stemmer is not a member of package org.apache.spark.mllib.feature错误:对象 Stemmer 不是包 org.apache.spark.mllib.feature 的成员
【发布时间】:2020-01-31 19:54:29
【问题描述】:

使用 Scala 在 Spark-shell 中导入包 org.apache.spark.mllib.feature.Stemmer 会返回以下错误: :47: 错误:对象 Stemmer 不是包 org.apache.spark.mllib.feature 的成员 导入 org.apache.spark.mllib.feature.Stemmer

我正在尝试使用以下方式对我的单词使用词干:

val stemmer_product_title = new Stemmer()
  .setInputCol("ngrams")
  .setOutputCol("stemmed")
  .setLanguage("English")

这里的 ngrams 是一个 1-gram 转换的文本。有人可以帮我吗?我将不胜感激。

【问题讨论】:

  • 能否提供您的 Spark MLLib 版本?
  • 我使用的是 spark 2.2.0 和 scala 2.11.8
  • 谁能帮我解决这个问题?我是 spark 的初学者

标签: scala apache-spark text stemming mining


【解决方案1】:

将以下依赖项添加到您的pom.xml

<dependency>
    <groupId>com.github.master</groupId>
    <artifactId>spark-stemming_2.10</artifactId>
    <version>0.2.0</version>
</dependency>

或发送至您的build.sbt

libraryDependencies += "com.github.master" %% "spark-stemming" % "0.2.1"

【讨论】:

    猜你喜欢
    • 2018-03-04
    • 2019-01-02
    • 2015-05-14
    • 1970-01-01
    • 2020-10-27
    • 2021-08-29
    • 2019-08-11
    • 2020-12-25
    • 2022-01-01
    相关资源
    最近更新 更多