【发布时间】:2019-07-09 18:40:12
【问题描述】:
我正在学习使用 Scala 开发 Spark 应用程序。我正处于我的第一步。 我在 Windows 上有我的 scala IDE。如果从本地驱动器读取文件,则配置并运行顺利。但是,我可以访问远程 hdfs 集群和 Hive 数据库,我想针对该 Hadoop 集群开发、尝试和测试我的应用程序......但我不知道如何:(
如果我尝试
val rdd=sc.textFile("hdfs://masternode:9000/user/hive/warehouse/dwh_db_jrtf.db/discipline")
我会收到一个错误,其中包含:
Exception in thread "main" java.io.IOException: Failed on local exception: com.google.protobuf.InvalidProtocolBufferException: Protocol message end-group tag did not match expected tag.; Host Details : local host is: "MyLap/11.22.33.44"; destination host is: "masternode":9000;
有人可以指导我吗?
【问题讨论】:
标签: scala apache-spark hdfs