>代码GitHub:https://github.com/SmallScorpion/flink-tutorial.git
Window概述
- streaming流式计算是一种被设计用于处理无限数据集的数据处理引擎,而无限数据集是指一种不断增长的本质上无限的数据集,而window是一种切割无限数据为有限块进行处理的手段。
- Window是无限数据流处理的核心,Window将一个无限的stream拆分成有限大小的”buckets”桶,我们可以在这些桶上做计算操作。
Window类型
1. CountWindow:按照指定的数据条数生成一个Window,与时间无关。
2. TimeWindow:按照时间生成Window。
滚动窗口(Tumbling Windows)
将数据依据固定的窗口长度对数据进行切片。
特点:时间对齐,窗口长度固定,没有重叠。
滚动窗口分配器将每个元素分配到一个指定窗口大小的窗口中,滚动窗口有一个固定的大小,并且不会出现重叠。例如:如果你指定了一个5分钟大小的滚动窗口,窗口的创建如下图所示:
滑动窗口(Sliding Windows)
滑动窗口是固定窗口的更广义的一种形式,滑动窗口由固定的窗口长度和滑动间隔组成。
特点:时间对齐,窗口长度固定,可以有重叠。
滑动窗口分配器将元素分配到固定长度的窗口中,与滚动窗口类似,窗口的大小由窗口大小参数来配置,另一个窗口滑动参数控制滑动窗口开始的频率。因此,滑动窗口如果滑动参数小于窗口大小的话,窗口是可以重叠的,在这种情况下元素会被分配到多个窗口中。
例如,你有10分钟的窗口和5分钟的滑动,那么每个窗口中5分钟的窗口里包含着上个10分钟产生的数据,如下图所示:
会话窗口(Session Windows)
由一系列事件组合一个指定时间长度的timeout间隙组成,类似于web应用的session,也就是一段时间没有接收到新数据就会生成新的窗口。
特点:时间无对齐。
session窗口分配器通过session活动来对元素进行分组,session窗口跟滚动窗口和滑动窗口相比,不会有重叠和固定的开始时间和结束时间的情况,相反,当它在一个固定的时间周期内不再收到元素,即非活动间隔产生,那个这个窗口就会关闭。一个session窗口通过一个session间隔来配置,这个session间隔定义了非活跃周期的长度,当这个非活跃周期产生,那么当前的session将关闭并且后续的元素将被分配到新的session窗口中去。
TimeWindow代码实操
Flink默认的时间窗口根据Processing Time 进行窗口的划分,将Flink获取到的数据根据进入Flink的时间划分到不同的窗口中。必须在KeyBy之后做窗口操作
import com.atguigu.bean.SensorReading
import org.apache.flink.api.common.functions.ReduceFunction
import org.apache.flink.streaming.api.scala._
import org.apache.flink.streaming.api.windowing.time.Time
object TimeWindowTest {
def main(args: Array[String]): Unit = {
val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment
val inputDStream: DataStream[String] = env.socketTextStream("hadoop102", 7777)
val dataDstream: DataStream[SensorReading] = inputDStream.map(
data => {
val dataArray: Array[String] = data.split(",")
SensorReading(dataArray(0), dataArray(1).toLong, dataArray(2).toDouble)
}
)
val windowDStream: DataStream[SensorReading] = dataDstream
.keyBy(0)
.timeWindow(Time.seconds(15))
// .timeWindow(Time.seconds(15),Time.seconds(5)) 滑动窗口,第二个参数为滑动步长
.reduce( MyReduceFunc() )
// .reduce((r1, r2) => (r1._1, r1._2.min(r2._2))) // 也可以直接写,这里是自定义
dataDstream.print("data")
windowDStream.print("window")
env.execute("window test job")
}
}
case class MyReduceFunc() extends ReduceFunction[SensorReading]{
override def reduce(t: SensorReading, t1: SensorReading): SensorReading = {
SensorReading(t.id, t1.timestamp, t.temperature.min(t1.temperature))
}
}
CountWindow
默认的CountWindow是一个滚动窗口,只需要指定窗口大小即可,当元素数量达到窗口大小时,就会触发窗口的执行。
import com.atguigu.bean.SensorReading
import org.apache.flink.streaming.api.scala._
object CountWindowTest {
def main(args: Array[String]): Unit = {
val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment
val inputDStream: DataStream[String] = env.readTextFile("D:\\MyWork\\WorkSpaceIDEA\\flink-tutorial\\src\\main\\resources\\SensorReading.txt")
val dataDstream: DataStream[SensorReading] = inputDStream.map(
data => {
val dataArray: Array[String] = data.split(",")
SensorReading(dataArray(0), dataArray(1).toLong, dataArray(2).toDouble)
}
)
val windowDStream: DataStream[SensorReading] = dataDstream
.keyBy(0)
.countWindow(2) // 滚动窗口
// 滑动窗口:sliding_size设置为了2,也就是说,每收到两个相同key的数据就计算一次,每一次计算的window范围是10个元素。
// .countWindow(10,2)
//.reduce( MyReduceFunc() )
.reduce((r1,r2) => SensorReading(r1.id, r1.timestamp, r1.temperature.min(r2.temperature)))
dataDstream.print("data")
windowDStream.print("window")
env.execute("window test job")
}
}
SessionWindow
时间窗口和计数窗口的底层都是.window()
import com.atguigu.bean.SensorReading
import org.apache.flink.streaming.api.scala._
object CountWindowTest {
def main(args: Array[String]): Unit = {
val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment
val inputDStream: DataStream[String] = env.readTextFile("D:\\MyWork\\WorkSpaceIDEA\\flink-tutorial\\src\\main\\resources\\SensorReading.txt")
val dataDstream: DataStream[SensorReading] = inputDStream.map(
data => {
val dataArray: Array[String] = data.split(",")
SensorReading(dataArray(0), dataArray(1).toLong, dataArray(2).toDouble)
}
)
val windowDStream: DataStream[SensorReading] = dataDstream
.keyBy(0)
.countWindow(2) // 滚动窗口
// 滑动窗口:sliding_size设置为了2,也就是说,每收到两个相同key的数据就计算一次,每一次计算的window范围是10个元素。
// .countWindow(10,2)
//.reduce( MyReduceFunc() )
.reduce((r1,r2) => SensorReading(r1.id, r1.timestamp, r1.temperature.min(r2.temperature)))
dataDstream.print("data")
windowDStream.print("window")
env.execute("window test job")
}
}
窗口函数(window function)
增量聚合函数只有在一个窗口关闭时,才会将窗口内的数据操作如求最小值,最大值的数据进行输出
Window和Aggregate简单小需求
import com.atguigu.bean.SensorReading
import org.apache.flink.api.common.functions.{AggregateFunction, ReduceFunction}
import org.apache.flink.streaming.api.scala._
import org.apache.flink.streaming.api.windowing.time.Time
object AggregateForWindowTest {
def main(args: Array[String]): Unit = {
val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment
val inputDStream: DataStream[String] = env.socketTextStream("hadoop102", 7777)
val dataDstream: DataStream[SensorReading] = inputDStream.map(
data => {
val dataArray: Array[String] = data.split(",")
SensorReading(dataArray(0), dataArray(1).toLong, dataArray(2).toDouble)
}
)
val windowDStream: DataStream[Double] = dataDstream
.keyBy(0)
.timeWindow(Time.seconds(15))
.aggregate( MyAggregateFunc() )
dataDstream.print("data")
windowDStream.print("window")
env.execute("window test job")
}
}
/**
* 自定义一个求温度平均值的函数
*/
case class MyAggregateFunc() extends AggregateFunction[SensorReading, (Double, Int), Double]{
// 状态的初始值,温度和计数都为0
override def createAccumulator(): (Double, Int) = (0.0, 0)
// 函数所作操作 用之前的数据加上此时的数据,计数+1
override def add(in: SensorReading, acc: (Double, Int)): (Double, Int) =
(in.temperature + acc._1, acc._2 + 1)
// 获取数据的最终值
override def getResult(acc: (Double, Int)): Double = acc._1 / acc._2
// 可以直接写null 这里不会出现合并的现象,防止的话可以填一个聚合操作
override def merge(acc: (Double, Int), acc1: (Double, Int)): (Double, Int) =
(acc._1 + acc1._1, acc._2 + acc1._2)
}