該日誌收集系統,是用來收集基於springCloud分佈式系統的生產環境。爲了方便數據統計和分析,我將日誌生成的格式,轉化爲JSON格式。 具體如何生成,稍後另寫一篇文章介紹。
線上架構流程圖:
五、安裝kibana
1、創建kibana容器
--------------------------------------安裝 kibana----------------------------------------
### 啓動簡單版,然後 copy 文件到 宿主機,最後刪除該容器
sudo docker run -tid \
--hostname=kibana \
--name=keda-kibana \
-p 15601:5601 \
-v /etc/localtime:/etc/localtime \
-e TZ='Asia/Shanghai' \
-e LANG="en_US.UTF-8" \
kibana:7.4.2
docker cp keda-elasticsearch:/usr/share/kibana/config/ /usr/docker/software/kibana/
docker cp keda-elasticsearch:/usr/share/kibana/data/ /usr/docker/software/kibana/
docker cp keda-elasticsearch:/usr/share/kibana/plugins/ /usr/docker/software/kibana/
docker stop keda-kibana
docker rm keda-kibana
## 如果需要修改配置文件,先修改。 在啓動 正式版容器
sudo docker run -tid \
-m 1024M --memory-swap -1 \
--net docker-network-slave2 \
--ip 192.168.0.248 \
--restart=always \
--privileged=true \
--hostname=slave_kibana \
--name=keda6-slave2-kibana \
-p 15601:5601 \
-v /usr/docker/software/kibana/config/:/usr/share/kibana/config/ \
-v /usr/docker/software/kibana/data/:/usr/share/kibana/data/ \
-v /usr/docker/software/kibana/plugins/:/usr/share/kibana/plugins/ \
-v /etc/localtime:/etc/localtime \
-e TZ='Asia/Shanghai' \
-e LANG="en_US.UTF-8" \
kibana:7.4.2
2、修改配置文件
[root@slave2 software]# cd kibana/
[root@slave2 kibana]# ls
config data plugins
[root@slave2 kibana]# cd config/
[root@slave2 config]# ls
kibana.yml
[root@slave2 config]# cat kibana.yml
#
# ** THIS IS AN AUTO-GENERATED FILE **
#
# Default Kibana configuration for docker target
server.port: 5601
server.name: kibana
server.host: "0.0.0.0"
elasticsearch.hosts: [ "http://172.19.174.184:19200","http://172.19.252.91:19200","http://172.19.71.141:19200" ]
#elasticsearch.username: kibana
#elasticsearch.password: keda123456
xpack.monitoring.ui.container.elasticsearch.enabled: true
xpack.security.encryptionKey: "something_at_least_32_characters"
xpack.reporting.encryptionKey: "something_at_least_32_characters"
xpack.security.sessionTimeout: 600000
[root@slave2 config]#