最簡單的-flume-ng-集羣搭建

hadoop集羣搭建方案

hive單機搭建方案

hbase集羣搭建方案

storm集羣搭建方案

flume集羣搭建方案

spark3集羣搭建方案

機器:

10.211.55.67 master
10.211.55.68 slave1
10.211.55.69 slave2

環境變量配置

#flume
export FLUME_HOME=/home/flume-1.9.0/
export PATH=$PATH:$FLUME_HOME/bin

cp flume-env.sh.template flume-env.sh
vi flume-env.sh 修改

export JAVA_HOME=/opt/module/jdk1.8.0_161

刪除/home/flume-1.9.0/lib/guava 用版本高的

cp /home/hadoop-3.2.1/share/hadoop/common/lib/guava-27.0-jre.jar /home/flume-1.9.0/lib/

slave1 slave2 新建文本vim agent.properties

主要作用是監聽目錄中的新增數據,採集到數據之後,輸出到avro (輸出到agent)
注意:Flume agent的運行,主要就是配置source channel sink
下面的a1就是agent的代號,source叫r1 channel叫c1 sink叫k1


a1.sources = r1
a1.sinks = k1
a1.channels = c1


#具體定義source  
a1.sources.r1.type = spooldir
#先創建此目錄,保證裏面空的  
a1.sources.r1.spoolDir = /logs 


#對於sink的配置描述 使用avro日誌做數據的消費
a1.sinks.k1.type = avro
# hostname是最終傳給的主機名稱或者ip地址
a1.sinks.k1.hostname = master
a1.sinks.k1.port = 44444


#對於channel的配置描述 使用文件做數據的臨時緩存 這種的安全性要高
a1.channels.c1.type = file
a1.channels.c1.checkpointDir = /home/uplooking/data/flume/checkpoint
a1.channels.c1.dataDirs = /home/uplooking/data/flume/data


#通過channel c1將source r1和sink k1關聯起來
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

Master 新建文本(遠程寫法 ip+端口+目錄,本地寫法 直接寫目錄)

# 獲取slave1,2上的數據,聚合起來,傳到hdfs上面
# 注意:Flume agent的運行,主要就是配置source channel sink
# 下面的a1就是agent的代號,source叫r1 channel叫c1 sink叫k1
a1.sources = r1
a1.sinks = k1
a1.channels = c1


#對於source的配置描述 監聽avro
a1.sources.r1.type = avro
# hostname是最終傳給的主機名稱或者ip地址
a1.sources.r1.bind = master
a1.sources.r1.port = 44444

#定義攔截器,爲消息添加時間戳  
a1.sources.r1.interceptors = i1  
a1.sources.r1.interceptors.i1.type = org.apache.flume.interceptor.TimestampInterceptor$Builder

#對於sink的配置描述 傳遞到hdfs上面
a1.sinks.k1.type = hdfs  
#集羣的nameservers名字
#單節點的直接寫:hdfs://主機名(ip):9000/xxx
#ns是hadoop集羣名稱
a1.sinks.k1.hdfs.path = hdfs://master:8020/flume/%Y%m%d  
a1.sinks.k1.hdfs.filePrefix = events-  
a1.sinks.k1.hdfs.fileType = DataStream  
#不按照條數生成文件  
a1.sinks.k1.hdfs.rollCount = 0  
#HDFS上的文件達到128M時生成一個文件  
a1.sinks.k1.hdfs.rollSize = 134217728  
#HDFS上的文件達到60秒生成一個文件  
a1.sinks.k1.hdfs.rollInterval = 60  

#對於channel的配置描述 使用內存緩衝區域做數據的臨時緩存
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

#通過channel c1將source r1和sink k1關聯起來
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1  

master啓動

cd /home/flume-1.9.0/
bin/flume-ng agent -n a1 -c conf -f conf/master.conf -Dflume.root.logger=INFO,console &

slave1,slave2啓動

bin/flume-ng agent -n a1 -c conf -f conf/slave.conf -Dflume.root.logger=INFO,console &

驗證去/logs 目錄下建立vim 1.txt
然後去hdfs-flume目錄下看響應的變化

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章