EFK教程 - 基於多節點ES的EFK安裝部署配置

EFK教程 - 基於多節點ES的EFK安裝部署配置

通過部署elasticsearch(三節點)+filebeat+kibana快速入門EFK,並搭建起可用的demo環境測試效果

作者:“發顛的小狼”,歡迎轉載與投稿


目錄

▪ 用途
▪ 實驗架構
▪ EFK軟件安裝
▪ elasticsearch配置
▪ filebeat配置
▪ kibana配置
▪ 啓動服務
▪ kibana界面配置
▪ 測試
▪ 後續文章


用途

▷ 通過filebeat實時收集nginx訪問日誌、傳輸至elasticsearch集羣
▷ filebeat將收集的日誌傳輸至elasticsearch集羣
▷ 通過kibana展示日誌


實驗架構

▷ 服務器配置

EFK教程 - 基於多節點ES的EFK安裝部署配置

▷ 架構圖

EFK教程 - 基於多節點ES的EFK安裝部署配置


EFK軟件安裝

版本說明

▷ elasticsearch 7.3.2
▷ filebeat 7.3.2
▷ kibana 7.3.2

注意事項

▷ 三個組件版本必須一致
▷ elasticsearch必須3臺以上且總數量爲單數

安裝路徑

▷ /opt/elasticsearch
▷ /opt/filebeat
▷ /opt/kibana

elasticsearch安裝:3臺es均執行相同的安裝步驟

mkdir -p /opt/software && cd /opt/software
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.3.2-linux-x86_64.tar.gz
tar -zxvf elasticsearch-7.3.2-linux-x86_64.tar.gz
mv elasticsearch-7.3.2 /opt/elasticsearch
useradd elasticsearch -d /opt/elasticsearch -s /sbin/nologin
mkdir -p /opt/logs/elasticsearch
chown elasticsearch.elasticsearch /opt/elasticsearch -R
chown elasticsearch.elasticsearch /opt/logs/elasticsearch -R

# 限制一個進程可以擁有的VMA(虛擬內存區域)的數量要超過262144,不然elasticsearch會報max virtual memory areas vm.max_map_count [65535] is too low, increase to at least [262144]
echo "vm.max_map_count = 655350" >> /etc/sysctl.conf
sysctl -p

filebeat安裝

mkdir -p /opt/software && cd /opt/software
wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.3.2-linux-x86_64.tar.gz
mkdir -p /opt/logs/filebeat/
tar -zxvf filebeat-7.3.2-linux-x86_64.tar.gz
mv filebeat-7.3.2-linux-x86_64 /opt/filebeat

kibana安裝

mkdir -p /opt/software && cd /opt/software
wget https://artifacts.elastic.co/downloads/kibana/kibana-7.3.2-linux-x86_64.tar.gz
tar -zxvf kibana-7.3.2-linux-x86_64.tar.gz
mv kibana-7.3.2-linux-x86_64 /opt/kibana
useradd kibana -d /opt/kibana -s /sbin/nologin
chown kibana.kibana /opt/kibana -R

nginx安裝(用於生成日誌,被filebeat收集)

# 只在192.168.1.11安裝
yum install -y nginx
/usr/sbin/nginx -c /etc/nginx/nginx.conf

elasticsearch配置

▷ 192.168.1.31 /opt/elasticsearch/config/elasticsearch.yml

# 集羣名字
cluster.name: my-application

# 節點名字
node.name: 192.168.1.31

# 日誌位置
path.logs: /opt/logs/elasticsearch

# 本節點訪問IP
network.host: 192.168.1.31

# 本節點訪問
http.port: 9200

# 節點運輸端口
transport.port: 9300

# 集羣中其他主機的列表
discovery.seed_hosts: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]

# 首次啓動全新的Elasticsearch集羣時,在第一次選舉中便對其票數進行計數的master節點的集合
cluster.initial_master_nodes: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]

# 啓用跨域資源共享
http.cors.enabled: true
http.cors.allow-origin: "*"

# 只要有2臺數據或主節點已加入集羣,就可以恢復
gateway.recover_after_nodes: 2

▷ 192.168.1.32 /opt/elasticsearch/config/elasticsearch.yml

# 集羣名字
cluster.name: my-application

# 節點名字
node.name: 192.168.1.32

# 日誌位置
path.logs: /opt/logs/elasticsearch

# 本節點訪問IP
network.host: 192.168.1.32

# 本節點訪問
http.port: 9200

# 節點運輸端口
transport.port: 9300

# 集羣中其他主機的列表
discovery.seed_hosts: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]

# 首次啓動全新的Elasticsearch集羣時,在第一次選舉中便對其票數進行計數的master節點的集合
cluster.initial_master_nodes: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]

# 啓用跨域資源共享
http.cors.enabled: true
http.cors.allow-origin: "*"

# 只要有2臺數據或主節點已加入集羣,就可以恢復
gateway.recover_after_nodes: 2

▷ 192.168.1.33 /opt/elasticsearch/config/elasticsearch.yml

# 集羣名字
cluster.name: my-application

# 節點名字
node.name: 192.168.1.33

# 日誌位置
path.logs: /opt/logs/elasticsearch

# 本節點訪問IP
network.host: 192.168.1.33

# 本節點訪問
http.port: 9200

# 節點運輸端口
transport.port: 9300

# 集羣中其他主機的列表
discovery.seed_hosts: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]

# 首次啓動全新的Elasticsearch集羣時,在第一次選舉中便對其票數進行計數的master節點的集合
cluster.initial_master_nodes: ["192.168.1.31", "192.168.1.32", "192.168.1.33"]

# 啓用跨域資源共享
http.cors.enabled: true
http.cors.allow-origin: "*"

# 只要有2臺數據或主節點已加入集羣,就可以恢復
gateway.recover_after_nodes: 2

filebeat配置

192.168.1.11 /opt/filebeat/filebeat.yml

# 文件輸入
filebeat.inputs:
  # 文件輸入類型
  - type: log
    # 開啓加載
    enabled: true
    # 文件位置
    paths:
      - /var/log/nginx/access.log
    # 自定義參數
    fields:
      type: nginx_access  # 類型是nginx_access,和上面fields.type是一致的

# 輸出至elasticsearch
output.elasticsearch:
  # elasticsearch集羣
  hosts: ["http://192.168.1.31:9200",
          "http://192.168.1.32:9200",
          "http://192.168.1.33:9200"]

  # 索引配置
  indices:
    # 索引名
    - index: "nginx_access_%{+yyy.MM}"
      # 當類型是nginx_access時使用此索引
      when.equals:
        fields.type: "nginx_access"

# 關閉自帶模板
setup.template.enabled: false

# 開啓日誌記錄
logging.to_files: true
# 日誌等級
logging.level: info
# 日誌文件
logging.files:
  # 日誌位置
  path: /opt/logs/filebeat/
  # 日誌名字
  name: filebeat
  # 日誌輪轉期限,必須要2~1024
  keepfiles: 7
  # 日誌輪轉權限
  permissions: 0600

kibana配置

192.168.1.21 /opt/kibana/config/kibana.yml

# 本節點訪問端口
server.port: 5601

# 本節點IP
server.host: "192.168.1.21"

# 本節點名字
server.name: "192.168.1.21"

# elasticsearch集羣IP
elasticsearch.hosts: ["http://192.168.1.31:9200",
                      "http://192.168.1.32:9200",
                      "http://192.168.1.33:9200"]

啓動服務

# elasticsearch啓動(3臺es均啓動)
sudo -u elasticsearch /opt/elasticsearch/bin/elasticsearch

# filebeat啓動
/opt/filebeat/filebeat -e -c /opt/filebeat/filebeat.yml -d "publish"

# kibana啓動
sudo -u kibana /opt/kibana/bin/kibana -c /opt/kibana/config/kibana.yml

上面的啓動方法是位於前臺運行。systemd配置方法,會在《EFK教程》系列後續文章中提供,敬請關注!


kibana界面配置

1️⃣ 使用瀏覽器訪問192.168.1.21:5601,看到以下界面表示啓動成功

EFK教程 - 基於多節點ES的EFK安裝部署配置

2️⃣ 點"Try our sample data"

EFK教程 - 基於多節點ES的EFK安裝部署配置

3️⃣ "Help us improve the Elastic Stack by providing usage statistics for basic features. We will not share this data outside of Elastic"點"no”

EFK教程 - 基於多節點ES的EFK安裝部署配置

4️⃣ "Add Data to kibana"點"Add data"

EFK教程 - 基於多節點ES的EFK安裝部署配置

5️⃣ 進入視圖

EFK教程 - 基於多節點ES的EFK安裝部署配置


測試

訪問nginx,生成日誌

curl -I "http://192.168.1.11"

在kibana上查看數據

1️⃣ 創建索引模板

EFK教程 - 基於多節點ES的EFK安裝部署配置

2️⃣ 輸入你要創建的索引模板的名字

EFK教程 - 基於多節點ES的EFK安裝部署配置

EFK教程 - 基於多節點ES的EFK安裝部署配置

3️⃣ 查看之前CURL的數據

EFK教程 - 基於多節點ES的EFK安裝部署配置

EFK教程 - 基於多節點ES的EFK安裝部署配置


後續文章

本文是《EFK教程》系列文章的第一篇,後續EFK文章將逐步發佈,包含角色分離、性能優化等許多幹貨,敬請關注!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章