当前位置:   article > 正文

Spark 获取RDD案例详解_获取rdd的方式

获取rdd的方式

1)获取内存中的RDD

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}
//从内存中获取RDD
object _01FromMemory {
    def main(args: Array[String]): Unit = {
        //配置文件
        val conf: SparkConf = new SparkConf().setMaster("local").setAppName("createRDD")
        //获取上下文对象
        val sc = new SparkContext(conf)
​
        //从内存中创建RDD
        val list = List(3, 6, 78, 9)
​
        /**
         * 方法一:使用上下文的并行化方法,从内存中获取RDD对象
         */
        val rdd: RDD[Int] = sc.parallelize(list)
        rdd.foreach(println)
​
        println("--------------------------------")
        /**
         * 方法二:使用上下文的makeRDD方法,来从内存中获取RDD对象
         */
        val rdd2 = sc.makeRDD(list)
        rdd2.foreach(println)
​
        //3
        //6
        //78
        //9
        //--------------------------------
        //3
        //6
        //78
        //9
    }
}
​

2)获取外部数据的RDD

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}
​
//从外部数据获取RDD
object _02FromOthers {
    def main(args: Array[String]): Unit = {
        val conf = new SparkConf().setMaster("local").setAppName("getRDD")
        val sc = new SparkContext(conf)
​
        /**
         * 从外部文件获取RDD Windows的磁盘获取
         *
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/秋刀鱼在做梦/article/detail/745132
推荐阅读
相关标签
  

闽ICP备14008679号