1、启动hdfs 

2、启动Spark

3、进入Spark shell 

Spark shell 统计word count程序

 

UI 界面显示如下

Spark shell 统计word count程序

4 、在scala 命令行中执行如下代码

sc.textFile("hdfs://bigdata121:9000/tmp/spark/data.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).saveAsTextFile("hdfs://bigdata121:9000/tmp/spark/count_word.txt")

 

5、查看统计结果 

 hdfs web 页面

Spark shell 统计word count程序

Spark shell 统计word count程序

6、在本地用hdfs 命令

Spark shell 统计word count程序

 

相关文章:

  • 2022-12-23
  • 2022-01-29
  • 2022-12-23
  • 2022-01-27
  • 2022-12-23
  • 2022-02-10
  • 2022-12-23
猜你喜欢
  • 2021-05-30
  • 2022-12-23
  • 2022-12-23
  • 2021-09-13
  • 2021-12-25
  • 2021-11-30
  • 2022-12-23
相关资源
相似解决方案