当前位置: 首页 > news >正文

Spark-Streaming3

无状态转换操作与有状态转换操作

无状态转换操作

        无状态转换操作仅处理当前时间跨度内的数据。例如,设置的采集时间为三秒,则只处理这三秒内的数据。

有状态转换操作(UpdateStateByKey)

        有状态转换操作可以跨批次处理数据。涉及跨批次的状态维护,如累加整个输入数据流的数据。        (主函数中获取当前数据和之前的状态,并进行累加合并更新状态。)

              

UpdateStateByKey 函数

功能

用于跨批次维护状态,记录历史记录。提供对状态变量的访问,更新每个键对应的状态。

  updateStateByKey() 的结果会是一个新的 DStream,其内部的 RDD 序列是由每个时间区间对应的(键,状态)对组成的。

使用步骤

定义状态(任意数据类型)。定义状态更新函数,基于新数据和当前状态更新状态。

updateStateByKey 操作使得我们可以在用新信息进行更新时保持任意的状态。为使用这个功能,需要做下面两步:

                1. 定义状态,状态可以是一个任意的数据类型。

                2. 定义状态更新函数,用此函数阐明如何使用之前的状态和来自输入流的新值对状态进行更新。

代码示例

示例代码展示了如何定义和使用 updateStateByKey 函数进行累加操作。

(使用 updateStateByKey 需要对检查点目录进行配置,会使用检查点来保存状态。)

val updateFunc = (values:Seq[Int],state:Option[Int])=>{val currentCount = values.foldLeft(0)(_+_)val previousCount = state.getOrElse(0)Some(currentCount+previousCount)
}
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("update")
val ssc = new StreamingContext(sparkConf,Seconds(5))
ssc.checkpoint("./ck")val lines = ssc.socketTextStream("node01",9999)
val words = lines.flatMap(_.split(" "))
val pairs = words.map((_,1))
val stateDStream = pairs.updateStateByKey[Int](updateFunc)
stateDStream.print()ssc.start()
ssc.awaitTermination()

Window Operations

        功能

设置窗口大小和滑动窗口间隔,动态获取流数据的状态。需要两个参数:窗口时长和滑动步长。

        使用要求

窗口时长和滑动步长必须是采集周期大小的整数倍。示例代码展示了如何设置窗口时长为12秒,滑动步长为6秒。

注意:

        这两者都必须为采集周期大小的整数倍。

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("window")
val ssc = new StreamingContext(sparkConf,Seconds(3))
ssc.checkpoint("./ck")val lines = ssc.socketTextStream("node01",9999)
val words = lines.flatMap(_.split(" "))
val pairs = words.map((_,1))
val wordCounts = pairs.reduceByKeyAndWindow((a:Int,b:Int)=>(a+b),Seconds(12),Seconds(6))
wordCounts.print()ssc.start()
ssc.awaitTermination()

DStream输出操作

常见方式

        打印在控制台上。保存成文本文件。保存成Java对象序列化形式。结合RDD进行输出。

输出操作如下:

 print():在运行流程序的驱动结点上打印 DStream 中每一批次数据的最开始 10 个元素。这用于开发和调试。

saveAsTextFiles(prefix, [suffix]):以 text 文件形式存储这个 DStream 的内容。每一批次的存储文件名基于参数中的 prefix 和 suffix。”prefix-Time_IN_MS[.suffix]”。

saveAsObjectFiles(prefix, [suffix]):以 Java 对象序列化的方式将 Stream 中的数据保存为SequenceFiles . 每一批次的存储文件名基于参数中的为"prefix-TIME_IN_MS[.suffix]".

saveAsHadoopFiles(prefix, [suffix]):将 Stream 中的数据保存为 Hadoop files. 每一批次的存储文件名基于参数中的为"prefix-TIME_IN_MS[.suffix]"。

foreachRDD(func):这是最通用的输出操作,即将函数 func 用于产生于 stream 的每一个RDD。其中参数传入的函数 func 应该实现将每一个 RDD 中数据推送到外部系统,如将RDD 存入文件或者通过网络将其写入数据库。

        通用的输出操作 foreachRDD(),它用来对 DStream 中的 RDD 运行任意计算。这和 transform() 有些类似,都可以让我们访问任意 RDD。在 foreachRDD()中,可以重用我们在 Spark 中实现的所有行动操作。比如,常见的用例之一是把数据写到诸如 MySQL 的外部数据库中。

注意:

连接不能写在 driver 层面(序列化)

如果写在 foreach 则每个 RDD 中的每一条数据都创建,得不偿失;

增加 foreachPartition,在分区创建(获取)。

相关文章:

  • Nacos简介—4.Nacos架构和原理一
  • 树莓派超全系列教程文档--(44)如何在树莓派上编译树莓派内核
  • 如何实现一个可视化的文字编辑器(C语言版)?
  • 优考试V4.20机构版【附百度网盘链接】
  • RabbitMQ应用(基于腾讯云)
  • 基于定制开发开源AI智能名片S2B2C商城小程序的会员存量池构建策略研究
  • 区块链基石解码:分布式账本的运行奥秘与技术架构
  • 助力产业升级 | BMC安全启动方案上新了!
  • Mysql从入门到精通day6————时间和日期函数精讲
  • 【PINN】DeepXDE学习训练营(6)——function-mf_func.py
  • Redis远程链接应用案例
  • 打造企业级AI文案助手:GPT-J+Flask全栈开发实战
  • CSDN编辑文章时如何自动生成目录
  • 【软件工程】 白盒测试简介
  • Java高频常用工具包汇总
  • pyspark将hive数据写入Excel文件中
  • 淘宝商品主图标题api接口
  • Word处理控件Spire.Doc系列教程:C# 通过模板创建 Word 文档
  • leetcode0175. 组合两个表-easy
  • AXPM60631: 用于AMOLED显示屏的200mA双路DC-DC电源管理芯片
  • 日月谭天丨赖清德强推“脱中入北”是把台湾带向死路
  • 深圳一季度GDP为8950.49亿元,同比增长5.2%
  • 上海“生育友好岗”已让4000余人受益,今年将推产假社保补贴政策
  • 暴涨96%!一季度“中国游中国购”持续升温,还有更多利好
  • 我国首个大型通用光谱望远镜JUST在青海启动建设
  • 103岁抗战老兵、抗美援朝老兵、医学专家张道中逝世