赞
踩
通过前几篇博客 Spark Streaming 架构及工作原理、DStream 编码实战 ,想必大家都 Spark Streaming 已经有了一定的了解。
这篇博客,我会和大家讲下如何基于 Spark Structured Streaming 进行开发与数据处理 。 首先我们来比较下,Structured Streaming 与 Spark Streaming 它有哪些不同呢? 带着 Structured Streaming 为啥这么牛Σ(っ °Д °;)っ 的疑问,我们开始今天的学习吧!
Tips:我会在两者比较的时候介绍 Spark Structured Streaming 的一些特性,请留意。
Spark Streaming 是 Spark 最初的流处理框架,使用了微批的形式来进行流处理。
提供了基于 RDDs 的 Dstream API,每个时间间隔内的数据为一个RDD,源源不断对 RDD 进行处理来实现流计算。
Spark 2.X 出来的流框架,采用了无界表的概念,流数据相当于往一个表上不断追加行。
基于 Spark SQL 引擎实现,可以使用大多数 Spark SQL 的 function。
Spark Streaming
Spark Streaming 采用微批的处理方法。每一个批处理间隔的为一个批,也就是一个RDD,我们对RDD进行操作就可以源源不断的接收、处理数据。
Structured Streaming
“Input Table” is Unbounded - 无界的输入表
Structured Streaming is to treat a live data stream as a table that is being continuously appended .
Structured Streaming 将实时数据当做被连续追加的表,流上的每一条数据都类似于将一行新数据添加到表中。
以上图为例,每隔1秒从输入源获取数据到 Input Table,并触发Query计算,然后将结果写入 Result Table,之后根据指定的 Output模式(有三种) 进行写出。
上面的1秒是指定的触发间隔(trigger interval),如果不指定的话,先前数据的处理完成后,系统将立即检查是否有新数据。
With every trigger interval, new rows get appended to the input table.
需要注意的是,Spark Streaming 本身设计就是一批批的以批处理间隔划分RDD;而Structured Streaming中并没有提出批的概念,Structured Streaming 按照每个 Trigger Interval(触发间隔) 接收数据到 Input Table,将数据处理后再追加到无边界的 Result Table 中,想要何种方式输出结果取决于指定的模式。所以,虽说 Structured Streaming 也有类似于 Spark Streaming 的 Interval,其本质概念是不一样的。Structured Streaming更像流模式。
Spark Streaming中的DStream编程接口是RDD,我们需要对RDD进行处理,处理起来较为费劲且不美观。
stream.foreachRDD(rdd => {
balabala(rdd)
})
Structured Streaming使用DataFrame、DataSet的编程接口,处理数据时可以使用Spark SQL中提供的方法,数据的转换和输出会变得更加简单。
spark
.readStream
.format("kafka")
.option("kafka.bootstrap.servers", "hadoop01:9092")
.option("subscribe", "order_data")
.load()
.select($"value".cast("string"))
.as[String]
.writeStream
.outputMode("complete")
.format("console")
Process Time:流处理引擎接收到数据的时间
Event Time:事件真正发生的时间
Spark Streaming中由于其微批的概念,会将一段时间内接收的数据放入一个批内,进而对数据进行处理。划分批的时间是Process Time,而不是Event Time,Spark Streaming没有提供对Event Time的支持。
Structured Streaming提供了基于事件时间处理数据的功能,如果数据包含事件的时间戳,就可以基于事件时间进行处理。
这里以窗口计数为例说明一下区别:
我们这里以10分钟为窗口间隔,5分钟为滑动间隔,每隔5分钟统计过去10分钟网站的pv
假设有一些迟到的点击数据,其本身事件时间是12:01,被spark接收到的时间是12:11;在Spark Streaming的统计中,会毫不犹豫的将它算作是12:05-12:15这个范围内的pv,这显然是不恰当的;在Structured Streaming中,可以使用事件时间将它划分到12:00-12:10的范围内,这才是我们想要的效果。
两者在可靠性保证方面都是使用了checkpoint机制。
checkpoint通过设置检查点,将数据保存到文件系统,在出现出故障的时候进行数据恢复。
在Spark Streaming中,如果我们需要修改流程序的代码,在修改代码重新提交任务时,是不能从checkpoint中恢复数据的(程序就跑不起来),是因为spark不认识修改后的程序了。
在Structured Streaming中,对于指定的代码修改操作,是不影响修改后从checkpoint中恢复数据的。
二者的输出数据(写入下游)的方式有很大的不同。
Spark Streaming中提供了foreachRDD()
方法,通过自己编程实现将每个批的数据写出。
stream.foreachRDD(rdd => {
save(rdd)
})
Structured Streaming 自身提供了一些sink(Console Sink、File Sink、Kafka Sink等),只要通过option配置就可以使用;对于需要自定义的Sink,提供了ForeachWriter的编程接口,实现相关方法就可以完成。
// console sink
val query = res
.writeStream
.outputMode("append")
.format("console")
.start()
总体来说,Structured Streaming 有更简洁的API、更完善的流功能、更适用于流处理。而spark streaming,更适用于与偏批处理的场景。
前面已经讲了 Structured Streaming 的基本概念,及其会再讲下它存储、自动流化、容错、性能等方面的特性,在事件时间的处理机制。
因为流处理具有如下显著的复杂性特征,所以很难建立非常健壮的处理过程:
因为可以运行在Spark SQL引擎上,Spark Structured Streaming天然拥有较好的性能、良好的扩展性及容错性等Spark优势。除此之外,它还具备丰富、统一、高层次的API,因此便于处理复杂的数据和工作流。再加上,无论是Spark自身,还是其集成的多个存储系统,都有丰富的生态圈。这些优势也让Spark Structured Streaming得到更多的发展和使用。
流的定义是一种无限表(unbounded table),把数据流中的新数据追加在这张无限表中,而它的查询过程可以拆解为几个步骤,例如可以从Kafka读取JSON数据,解析JSON数据,存入结构化Parquet表中,并确保端到端的容错机制。其中的特性包括:
Spark SQL把批次查询转化为一系列增量执行计划,从而可以分批次地操作数据。
在容错机制上,Structured Streaming 采取检查点机制,把进度offset写入stable的存储中,用JSON的方式保存支持向下兼容,允许从任何错误点(例如自动增加一个过滤来处理中断的数据)进行恢复。这样确保了端到端数据的exactly-once。
在性能上,Structured Streaming 重用了Spark SQL优化器和Tungsten引擎,而且成本降低了3倍!!
Structured Streaming 隔离处理逻辑采用的是可配置化的方式(比如定制JSON的输入数据格式),执行方式是批处理还是流查询很容易识别。这里我们还需要知道批处理、微批次-流处理、持续流处理三种模式的延迟性、吞吐性和资源分配情况。
在时间窗口的支持上,Structured Streaming 支持基于事件时间(event-time)的聚合,这样更容易了解每隔一段时间发生的事情。同时也支持各种用户定义聚合函数(User Defined Aggregate Function,UDAF)。
另外,Structured Streaming可通过不同触发器间分布式存储的状态来进行聚合,状态被存储在内存中,归档采用HDFS的Write Ahead Log (WAL)机制。当然,Structured Streaming还可自动处理过时的数据,更新旧的保存状态。因为历史状态记录可能无限增长,这会带来一些性能问题,为了限制状态记录的大小,Spark使用水印(watermarking)来删除不再更新的旧的聚合数据。允许支持自定义状态函数,比如事件或处理时间的超时,同时支持Scala和Java。
在苹果的信息安全平台中,每秒将产生有百万级事件,Structured Streaming可以用来做缺陷检测,下图是该平台架构:
在该架构中,一是可以把任意原始日志通过ETL加载到结构化日志库中,通过批次控制可很快进行灾难恢复;二是可以连接很多其它的数据信息(DHCP session,缓慢变化的数据);三是提供了多种混合工作方式:实时警告、历史报告、ad-hoc分析、统一的API允许支持各种分析(例如实时报警系统)等,支持快速部署。四是达到了百万事件秒级处理性能。
Event-time is the time embedded in the data itself, not the time when the data is received. (事件时间是嵌入数据本身的时间,而不是接收数据的时间。)
The event-time model allows to handle data that has arrived later than expected. (事件时间模型允许处理晚于预期的数据。)
Watermarking(水印)
case class WordCount(word: String, count: Int)
val lines = spark.readStream.format("socket").option("host", "localhost").option("port", 9999).load()
// Split the lines into words
val df = lines.as[String].flatMap(_.split(" ").map(w => (w, 1))).withColumnRenamed("_1", "word").withColumnRenamed("_2", "count")
df.createOrReplaceTempView("updates")
val df1 = spark.sql("select count(*) from updates")
val df = df.as[WordCount]
import org.apache.spark.sql.expressions.scalalang.typed
val result = ds.groupByKey(_.word.substring(0, 1)).agg(typed.sum(_.count))
// Start running the query that prints the running counts to the console
val query = result.writeStream.outputMode("complete").format("console").start()
query.awaitTermination()
Duplicate records can be dropped in data streams using a unique identifier in the events. (可以使用事件中的唯一标识符在数据流中删除重复的记录。)
val streamingDf = spark.readStream. ... // columns: guid, eventTime, ...
// Without watermark using guid column
streamingDf.dropDuplicates("guid")
// With watermark using guid and eventTime columns
streamingDf
.withWatermark("eventTime", "10 seconds")
.dropDuplicates("guid", "eventTime")
◆ Unsupported Operations:
◆ Changed uses:
val eventSchema = new StructType().add("event_id", "string").add("user_id", "string")
.add("start_time", "string").add("address", "string")
.add("city", "string").add("state", "string")
.add("country", "string")
.add("latitude", "float").add("longitude", "float")
val dfEvents = spark.readStream.option("sep", ",").schema(eventSchema).csv("hdfs:///user/events/events_*.csv")
val result = dfEvents.groupBy("user_id").count()
// Start running the query that prints the running counts to the console
val query = result.writeStream.outputMode("complete").format("console").start()
query.awaitTermination()
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。