基于spark的流式数据处理—批处理和流处理区别

静态数据

很多企业为了支持决策分析而构建的数据仓库系统,其中存放的大量历史数据就是静态数据。技术人员可以利用数据挖掘和OLAP(On-Line Analytical Processing)分析工具从静态数据中找到对企业有价值的信息。
在这里插入图片描述

流数据

近年来,在Web应用、网络监控、传感监测等领域,兴起了一种新的数据密集型应用——流数据,即数据以大量、快速、时变的流形式持续到达。实例:PM2.5检测、电子商务网站用户点击流。

流数据具有如下特征:
  • 数据快速持续到达,潜在大小也许是无穷无尽的;
  • 数据来源众多,格式复杂;
  • 数据量大,但是不十分关注存储,一旦经过处理,要么被丢弃,要么被归档存储;
  • 注重数据的整体价值,不过分关注个别数据;
  • 数据顺序颠倒,或者不完整,系统无法控制将要处理的新到达的数据元素的顺序;

批处理与流处理

对静态数据和流数据的处理,对应着两种截然不同的计算模式:批量计算和实时计算。
在这里插入图片描述
1、批量计算:充裕时间处理静态数据,如Hadoop;
2、流数据不适合采用批量计算,因为流数据不适合用传统的关系模型建模;
3、流数据必须采用实时计算,响应时间为秒级;
4、数据量少时,不是问题,但是,在大数据时代,数据格式复杂、来源众多、数据量巨大,对实时计算提出了很大的挑战。因此,针对流数据的实时计算——流计算,应运而生。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章