1、上傳安裝包
2、解壓安裝包到對應的目錄
tar -zxvf kafka_2.11-1.1.0.tgz
3、修改配置文件
cd /home/hadoop/apps/kafka_2.11-1.1.0/config
vim server.properties
修改以下內容:
broker.id=1 ## 當前集羣中的每個 broker 節點的一個唯一編號,每個節點都不一樣
listeners=PLAINTEXT://:9092
advertised.listeners=PLAINTEXT://ali:9092
host.name=ali ## 每個節點指定爲當前主機名,上面也是
log.dirs=/home/hadoop/data/kafka-logs ## kafka 的 broker 工作節點數據存儲目錄
num.partitions=1 ## kafka 的
topic 的默認分區數
log.retention.hours=168 ## 日誌的最長保存時間
zookeeper.connect=ali:2181,tencent:2181,huawei:2181 ## zookeeper 地址
4、分發安裝包
scp -r kafka_2.11-1.1.0 tencent:/home/hadoop/apps/
scp -r kafka_2.11-1.1.0huawei:/home/hadoop/apps/
千萬注意:要修改$KAFKA_HOME/config/server.properties 文件中的對應 broker 節點的信息
主要是以下三個:
broker.id=your broker id
host.name=your broker hostname
advertised.listeners=PLAINTEXT:// your broker hostname:9092
5、配置環境變量
vim /etc/profile
增加以下內容:
export KAFKA_HOME=/home/hadoop/apps/kafka_2.11-1.1.0
export PATH=$PATH:$KAFKA_HOME/bin
保存退出
然後執行命令時生效:source /etc/profile
6、啓動集羣,進行驗證
啓動命令:
啓動到前臺
kafka-server-start.sh /home/hadoop/apps/kafka_2.11-1.1.0/config/server.properties
nohup kafka-server-start.sh \
/home/hadoop/apps/kafka_2.11-1.1.0/config/server.properties \
1>~/logs/kafka_std.log \
2>~/logs/kafka_err.log &