Flink-Window概述 | Window类型 | TimeWindow、CountWindow、SessionWindow、WindowFunction

>代码GitHub:https://github.com/SmallScorpion/flink-tutorial.git

Window概述

  1. streaming流式计算是一种被设计用于处理无限数据集的数据处理引擎,而无限数据集是指一种不断增长的本质上无限的数据集,而window是一种切割无限数据为有限块进行处理的手段。
  2. Window是无限数据流处理的核心,Window将一个无限的stream拆分成有限大小的”buckets”桶,我们可以在这些桶上做计算操作。
    在这里插入图片描述

Window类型

1. CountWindow:按照指定的数据条数生成一个Window,与时间无关。
2. TimeWindow:按照时间生成Window。

在这里插入图片描述

滚动窗口(Tumbling Windows)

将数据依据固定的窗口长度对数据进行切片。
特点:时间对齐,窗口长度固定,没有重叠。

滚动窗口分配器将每个元素分配到一个指定窗口大小的窗口中,滚动窗口有一个固定的大小,并且不会出现重叠。例如:如果你指定了一个5分钟大小的滚动窗口,窗口的创建如下图所示:
在这里插入图片描述

滑动窗口(Sliding Windows)

滑动窗口是固定窗口的更广义的一种形式,滑动窗口由固定的窗口长度和滑动间隔组成。
特点:时间对齐,窗口长度固定,可以有重叠。

滑动窗口分配器将元素分配到固定长度的窗口中,与滚动窗口类似,窗口的大小由窗口大小参数来配置,另一个窗口滑动参数控制滑动窗口开始的频率。因此,滑动窗口如果滑动参数小于窗口大小的话,窗口是可以重叠的,在这种情况下元素会被分配到多个窗口中。
例如,你有10分钟的窗口和5分钟的滑动,那么每个窗口中5分钟的窗口里包含着上个10分钟产生的数据,如下图所示:

在这里插入图片描述

会话窗口(Session Windows)

由一系列事件组合一个指定时间长度的timeout间隙组成,类似于web应用的session,也就是一段时间没有接收到新数据就会生成新的窗口。
特点:时间无对齐。

session窗口分配器通过session活动来对元素进行分组,session窗口跟滚动窗口和滑动窗口相比,不会有重叠和固定的开始时间和结束时间的情况,相反,当它在一个固定的时间周期内不再收到元素,即非活动间隔产生,那个这个窗口就会关闭。一个session窗口通过一个session间隔来配置,这个session间隔定义了非活跃周期的长度,当这个非活跃周期产生,那么当前的session将关闭并且后续的元素将被分配到新的session窗口中去。
在这里插入图片描述

TimeWindow代码实操

Flink默认的时间窗口根据Processing Time 进行窗口的划分,将Flink获取到的数据根据进入Flink的时间划分到不同的窗口中。必须在KeyBy之后做窗口操作

import com.atguigu.bean.SensorReading
import org.apache.flink.api.common.functions.ReduceFunction
import org.apache.flink.streaming.api.scala._
import org.apache.flink.streaming.api.windowing.time.Time

object TimeWindowTest {
  def main(args: Array[String]): Unit = {

    val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment

    val inputDStream: DataStream[String] = env.socketTextStream("hadoop102", 7777)

    val dataDstream: DataStream[SensorReading] = inputDStream.map(
      data => {
        val dataArray: Array[String] = data.split(",")
        SensorReading(dataArray(0), dataArray(1).toLong, dataArray(2).toDouble)
      }
    )

    val windowDStream: DataStream[SensorReading] = dataDstream
      .keyBy(0)
      .timeWindow(Time.seconds(15))
      // .timeWindow(Time.seconds(15),Time.seconds(5)) 滑动窗口,第二个参数为滑动步长
      .reduce( MyReduceFunc() )
	  //  .reduce((r1, r2) => (r1._1, r1._2.min(r2._2))) // 也可以直接写,这里是自定义
    
    dataDstream.print("data")
    windowDStream.print("window")

    env.execute("window test job")
  }
}

case class MyReduceFunc() extends ReduceFunction[SensorReading]{
  override def reduce(t: SensorReading, t1: SensorReading): SensorReading = {
    SensorReading(t.id, t1.timestamp, t.temperature.min(t1.temperature))
  }
}

在这里插入图片描述

CountWindow

默认的CountWindow是一个滚动窗口,只需要指定窗口大小即可,当元素数量达到窗口大小时,就会触发窗口的执行。

import com.atguigu.bean.SensorReading
import org.apache.flink.streaming.api.scala._


object CountWindowTest {
  def main(args: Array[String]): Unit = {

    val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment

    val inputDStream: DataStream[String] = env.readTextFile("D:\\MyWork\\WorkSpaceIDEA\\flink-tutorial\\src\\main\\resources\\SensorReading.txt")

    val dataDstream: DataStream[SensorReading] = inputDStream.map(
      data => {
        val dataArray: Array[String] = data.split(",")
        SensorReading(dataArray(0), dataArray(1).toLong, dataArray(2).toDouble)
      }
    )

    val windowDStream: DataStream[SensorReading] = dataDstream
      .keyBy(0)
      .countWindow(2) // 滚动窗口
      // 滑动窗口:sliding_size设置为了2,也就是说,每收到两个相同key的数据就计算一次,每一次计算的window范围是10个元素。
      // .countWindow(10,2)
      //.reduce( MyReduceFunc() )
      .reduce((r1,r2) => SensorReading(r1.id, r1.timestamp, r1.temperature.min(r2.temperature)))


    dataDstream.print("data")
    windowDStream.print("window")

    env.execute("window test job")
  }
}

在这里插入图片描述

SessionWindow

时间窗口和计数窗口的底层都是.window()

import com.atguigu.bean.SensorReading
import org.apache.flink.streaming.api.scala._


object CountWindowTest {
  def main(args: Array[String]): Unit = {

    val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment

    val inputDStream: DataStream[String] = env.readTextFile("D:\\MyWork\\WorkSpaceIDEA\\flink-tutorial\\src\\main\\resources\\SensorReading.txt")

    val dataDstream: DataStream[SensorReading] = inputDStream.map(
      data => {
        val dataArray: Array[String] = data.split(",")
        SensorReading(dataArray(0), dataArray(1).toLong, dataArray(2).toDouble)
      }
    )

    val windowDStream: DataStream[SensorReading] = dataDstream
      .keyBy(0)
      .countWindow(2) // 滚动窗口
      // 滑动窗口:sliding_size设置为了2,也就是说,每收到两个相同key的数据就计算一次,每一次计算的window范围是10个元素。
      // .countWindow(10,2)
      //.reduce( MyReduceFunc() )
      .reduce((r1,r2) => SensorReading(r1.id, r1.timestamp, r1.temperature.min(r2.temperature)))

    dataDstream.print("data")
    windowDStream.print("window")

    env.execute("window test job")
  }
}

在这里插入图片描述

窗口函数(window function)

增量聚合函数只有在一个窗口关闭时,才会将窗口内的数据操作如求最小值,最大值的数据进行输出
在这里插入图片描述

Window和Aggregate简单小需求

import com.atguigu.bean.SensorReading
import org.apache.flink.api.common.functions.{AggregateFunction, ReduceFunction}
import org.apache.flink.streaming.api.scala._
import org.apache.flink.streaming.api.windowing.time.Time

object AggregateForWindowTest {
  def main(args: Array[String]): Unit = {

    val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment

    val inputDStream: DataStream[String] = env.socketTextStream("hadoop102", 7777)

    val dataDstream: DataStream[SensorReading] = inputDStream.map(
      data => {
        val dataArray: Array[String] = data.split(",")
        SensorReading(dataArray(0), dataArray(1).toLong, dataArray(2).toDouble)
      }
    )

    val windowDStream: DataStream[Double] = dataDstream
      .keyBy(0)
      .timeWindow(Time.seconds(15))
      .aggregate( MyAggregateFunc() )

    dataDstream.print("data")
    windowDStream.print("window")

    env.execute("window test job")
  }
}

/**
 * 自定义一个求温度平均值的函数
 */
case class MyAggregateFunc() extends AggregateFunction[SensorReading, (Double, Int), Double]{

  // 状态的初始值,温度和计数都为0
  override def createAccumulator(): (Double, Int) = (0.0, 0)

  // 函数所作操作 用之前的数据加上此时的数据,计数+1
  override def add(in: SensorReading, acc: (Double, Int)): (Double, Int) =
    (in.temperature + acc._1, acc._2 + 1)

  // 获取数据的最终值
  override def getResult(acc: (Double, Int)): Double = acc._1 / acc._2

  // 可以直接写null 这里不会出现合并的现象,防止的话可以填一个聚合操作
  override def merge(acc: (Double, Int), acc1: (Double, Int)): (Double, Int) =
    (acc._1 + acc1._1, acc._2 + acc1._2)
}

在这里插入图片描述

其他可选API

在这里插入图片描述

Window API 总览

在这里插入图片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章