使用flume採集linux本地文件至kafka

編寫配置文件

vim dir_kafka.conf

a1.sources = r1
a1.sinks = k1
a1.channels = c1
#對於source的配置描述 監聽avro
a1.sources.r1.type = spooldir
a1.sources.r1.spoolDir =/opt/access.log
a1.sources.r1.fileSuffix=.FINISHED
a1.sources.r1.deserializer.maxLineLength=5120
#對於source的配置描述 監聽文件中的新增數據 exec
a1.sources.r1.type = exec
a1.sources.r1.command  = tail -F /opt/log/access.log
a1.sources.ri.shell = /bin/sh -c
#對於sink的配置描述 使用kafka做數據的消費
a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.topic = kk7
a1.sinks.k1.brokerList = 192.168.88.11:9092,192.168.88.12:9092,192.168.88.13:9092
a1.sinks.k1.requiredAcks = 1
a1.sinks.k1.batchSize = 20
#對於channel的配置描述 使用內存緩衝區域做數據的臨時緩存
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

#通過channel c1將source r1和sink k1關聯起來
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

flume 啓動命令

./flume-ng agent -c /usr/local/flume/conf -f /usr/local/flume/conf/dir-hdfs.conf -n a1 -Dflume.root.logger=INFO,console
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章