当前位置:   article > 正文

spark scala 编写 词频统计案例_linux spark 词频统计

linux spark 词频统计

在  home/hzb 下 新建 test.txt 文件

vim test.txt

 

1.从 Linux 本地文件系统加载数据创建 RDD

  1. scala> val lines=sc.textFile("file:///home/hzb/test.txt")
  2. lines: org.apache.spark.rdd.RDD[String] = file:///home/hzb/test.txt MapPartitionsRDD[1] at textFile at <console>:24

2.转换算子 通过 flatMap 转换算子 把文件内容拆分成一个个单词

  1. scala> val words=lines.flatMap(line=>line.split(" "))
  2. words: org.apache.spark.rdd.RDD[String] = MapPartitionsRDD[2] at flatMap at <console>:25

3.通过 Map 算子 返回一个新的数据集

  1. scala> val wordAndOne=words.map(word=>(word,1))
  2. wordAndOne: org.apache.spark.rdd.RDD[(String, Int)] = MapPartitionsRDD[3] at map at <console>:25

4.通过groupByKey 算子操作文件内容中所有单词进行分组

  1. scala> val wordCount=wordAndOne.reduceByKey((a,b)=>a+b)
  2. wordCount: org.apache.spark.rdd.RDD[(String, Int)] = ShuffledRDD[4] at reduceByKey at <console>:25

5.打印 wordCoount

scala> wordCount.foreach(println)

6.词凭统计结果

  1. (scala,1)
  2. (spark,3)
  3. (itcast,3)
  4. (hadoop,2)
  5. (heima,1)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/爱喝兽奶帝天荒/article/detail/779936
推荐阅读
相关标签
  

闽ICP备14008679号