【发布时间】:2016-09-29 17:50:48
【问题描述】:
我有 Intellij IDEA 社区版。我需要为 IntellJ 配置 Apache Spark 的帮助。我想通过 Scala 从 GA 获取数据..我使用 crealytics..
我的 build.sbt:
name := "scala-project-test"
version := "1.0"
scalaVersion := "2.11.8"
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % "1.6.1",
"org.apache.spark" %% "spark-sql" % "1.6.1",
"com.crealytics" % "spark-google-analytics_2.11" % "0.8.1"
)
和 analytics.scala
import org.apache.spark.sql.SQLContext
object analytics {
val sqlContext = new SQLContext(sc)
val df = sqlContext.read
.format("com.crealytics.google.analytics")
.option("serviceAccountId", "xxxxxxxxx@developer.gserviceaccount.com")
.option("keyFileLocation", "/Users/userABC/IdeaProjects/scala-project-test/xxxx.p12")
.option("ids", "ga:xxxxxx")
.option("startDate", "7daysAgo")
.option("endDate", "yesterday")
.option("dimensions", "date,browser,city")
.option("queryIndividualDays", "true")
.load()
df.select("browser", "users").show()
}
当我运行对象分析时,出现错误: 未找到:值 sc
我认为 Spark 配置有问题,因为 sc 是 SparkContext,但我不知道它在哪里。
有什么提示吗?
【问题讨论】:
标签: scala intellij-idea apache-spark google-analytics apache-spark-sql