【问题标题】:Scala case class ignoring import in the Spark shellScala案例类忽略Spark shell中的导入
【发布时间】:2016-12-08 03:31:30
【问题描述】:

我希望这个问题有一个明显的答案!

我刚刚升级到 Spark v2.0,spark-shell(Scala 2.11 构建)遇到了一个奇怪的问题。

如果我输入以下最小的 Scala,

导入 java.sql.Timestamp

case class Crime(caseNumber: String, date: Timestamp, description: String, detail: String,逮捕: Boolean)

我收到以下错误,

:11: error: not found: type Timestamp

如果我在其他地方使用 Java Timestamp 类,例如在函数中,则不会产生错误(正如您所期望的那样,因为导入)。

如果我完全符合条件并在案例类中使用 java.sql.Timestamp 就可以了!

我是否遗漏了一些明显的东西?

【问题讨论】:

  • 我在 Zeppelin 中遇到了同样的问题。你如何在那里修复它?

标签: scala apache-spark apache-spark-2.0


【解决方案1】:

只是在案例类声明中没有加载时间戳,你可以解决这个问题:

:paste
import java.sql.Timestamp
case class Crime(caseNumber: String, date: Timestamp, description: String, detail: String, arrest: Boolean)

case class Crime(caseNumber: String, date: java.sql.Timestamp, description: String, detail: String, arrest: Boolean)

【讨论】:

  • 谢谢!这就是我所做的,但它曾经在 1.6 shell 中工作......你知道发生了什么变化吗?
  • 如何在 Zeppelin 中解决这个问题?
猜你喜欢
  • 2020-08-12
  • 1970-01-01
  • 2021-12-30
  • 2022-07-08
  • 1970-01-01
  • 2021-12-26
  • 2020-05-28
  • 1970-01-01
  • 1970-01-01
相关资源
最近更新 更多