1.集羣規劃
hadoop02(192.168.58.130) | hadoop03(192.168.58.131) | hadoop04(192.168.58.132) |
---|---|---|
kafka | kafka | kafka |
2.集羣部署
1.下載kafka二進制包
https://kafka.apache.org/downloads
2.解壓
mkdir /usr/kafka
tar -zxvf /home/kafka_2.13-3.6.1.tgz -C /usr/kafka/
3.修改配置文件(以192.168.58.130上節點的配置爲例)
cd /usr/kafka/kafka_2.13-3.6.1/config/kraft
vi server.properties
注:Kraft模式的配置文件在config目錄的kraft子目錄下
4.在其他節點上修改配置文件
在 192.168.58.131 和 192.168.58.132 上修改配置文件server.properties
中的 broker.id
注:broker.id 不得重複,整個集羣中唯一。
# broker 的全局唯一編號,不能重複,只能是數字。
broker.id=1
# broker 的全局唯一編號,不能重複,只能是數字。
broker.id=2
5.配置環境變量
在/etc/profile.d中配置
1.新建kafka.sh
vi /etc/profile.d/kafka.sh
# KAFKA_HOME
export KAFKA_HOME=/usr/kafka/kafka_2.13-3.6.1
export PATH=$PATH:$KAFKA_HOME/bin
2.授予文件執行權限
chmod u+x /etc/profile.d/kafka.sh
3.刷新環境變量
source /etc/profile
6.啓動集羣
1.在節點上依次啓動 Kafka
2.kafka一鍵啓停腳本
1.創建腳本
vi /usr/bin/kafka
2.添加執行權限
chmod +x /usr/bin/kafka
3.使用
kafka start/stop
8.關閉集羣
/usr/kafka/kafka_2.13-3.6.1/bin/kafka-server-stop.sh