Flume簡介及安裝部署

在一個完整的離線大數據處理系統中,除了hdfs+mapreduce+hive組成分析系統的核心之外,還需要數據採集、結果數據導出、任務調度等不可或缺的輔助系統,而這些輔助工具在hadoop生態體系中都有便捷的開源框架,如圖所示:

在這裏插入圖片描述

概述

  • Flume是一個分佈式、可靠、和高可用的海量日誌採集、聚合和傳輸的系統。
  • Flume可以採集文件,socket數據包、文件、文件夾、kafka等各種形式源數據,又可以將採集到的數據(下沉sink)輸出到HDFS、hbase、hive、kafka等衆多外部存儲系統中。
  • 一般的採集需求,通過對flume的簡單配置即可實現。 Flume針對特殊場景也具備良好的自定義擴展能力,

因此,flume可以適用於大部分的日常數據採集場景。
宏觀角度來看類似生活中的掃碼槍、吸塵器吸頭。

運行機制

1、Flume分佈式系統中最核心的角色是agent,flume採集系統就是由一個個agent所連接起來形成
2、每一個agent相當於一個數據傳遞員,內部有三個組件:
a)Source:採集組件,用於跟數據源對接,以獲取數據
b)Channel:傳輸通道組件,用於從source將數據傳遞到sink
c)Sink:下沉組件,用於往下一級agent傳遞數據或者往最終存儲系統傳遞數據
在這裏插入圖片描述
Source 到 Channel 到 Sink之間傳遞數據的形式是Event事件;Event事件是一個數據流單元。
在這裏插入圖片描述

Flume採集系統結構圖

  1. 簡單結構
    單個agent採集數據
    在這裏插入圖片描述
  2. 複雜結構
    多級agent之間串聯
    在這裏插入圖片描述

Flume安裝部署

Flume的安裝非常簡單,只需要解壓即可,前提是已有hadoop環境
上傳安裝包到數據源所在節點上
上傳安裝文件並解壓
tar -zxvf flume-ng-1.6.0-cdh5.14.0.tar.gz -C /export/servers/
cd /export/servers/apache-flume-1.6.0-cdh5.14.0-bin/conf
cp flume-env.sh.template flume-env.sh
vim flume-env.sh
配置Java_home
export JAVA_HOME=/export/servers/jdk1.8.0_141

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章