寫在前面:爲什麼要用ElasticSearch?我們的應用經常需要添加檢索功能,開源的Elastic Search是目前全文檢索引擎的首選。它可以快速的存儲、搜索和分析海量數據。ElasticSearch是一個分佈式搜索框架,提供RestfulAPI,底層基於Lucene,採用多shard(分片)的方式保證數據安全,並且提供自動resharding的功能。
Elasticsearch: 權威指南(中文):https://www.elastic.co/guide/cn/elasticsearch/guide/current/index.html
一、拉取ElasticSearch鏡像
在centos窗口中,執行如下命令:
docker pull elasticsearch:6.4.3 # 與你集羣 jar 的版本號要一致。
當前ES鏡像版本信息:
docker inspect docker.io/elasticsearch:6.4.3
二、創建數據掛在目錄,以及配置ElasticSearch集羣配置文件,調高JVM線程數限制數量
2.1 創建數據文件掛載目錄,並開放通信端口
在centos窗口中,執行如下操作:
➜ tool pwd
/root/tool
➜ tool mkdir -p ES/config
➜ tool cd ES
➜ ES mkdir data1
➜ ES mkdir data2
➜ ES mkdir data3
➜ ES cd config
➜ config firewall-cmd --add-port=9300/tcp
Warning: ALREADY_ENABLED: '9300:tcp' already in 'public'
success
➜ config firewall-cmd --add-port=9301/tcp
success
➜ config firewall-cmd --add-port=9302/tcp
success
➜ config cd ../
➜ ES chmod 777 data1 data2 data3
注:如果ELK選的6.X版本的,那麼讀者需將data1 data2 data3 開啓777權限=> chmod 777 data1 data2 data3
2.2 創建ElasticSearch配置文件
在centos窗口中,使用vim命令分別創建如下文件:es1.yml,es2.yml,es3.yml
es1.yml 最好把註釋祛除,Linux 空格與 Windows 下不同
➜ config cat es1.yml
cluster.name: elasticsearch-cluster # 集羣名稱
node.name: es-node1 # 節點名稱
network.bind_host: 0.0.0.0 # 節點服務器對應ip,生產環境對應host
network.publish_host: 192.168.26.22 # 同上 兩行代碼燈影network.port:192.168.26.22 未驗證
http.port: 9200
transport.tcp.port: 9300
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true
node.data: true
discovery.zen.ping.unicast.hosts: ["192.168.26.22:9300","192.168.26.22:9301","192.168.26.22:9302"]
discovery.zen.minimum_master_nodes: 2
es2.yml
➜ config cat es1.yml
cluster.name: elasticsearch-cluster
node.name: es-node2
network.bind_host: 0.0.0.0
network.publish_host: 192.168.26.22
http.port: 9201
transport.tcp.port: 9301
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true
node.data: true
discovery.zen.ping.unicast.hosts: ["192.168.26.22:9300","192.168.26.22:9301","192.168.26.22:9302"]
discovery.zen.minimum_master_nodes: 2
es3.yml
➜ config cat es1.yml
cluster.name: elasticsearch-cluster
node.name: es-node3
network.bind_host: 0.0.0.0
network.publish_host: 192.168.26.22
http.port: 9202
transport.tcp.port: 9302
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true
node.data: true
discovery.zen.ping.unicast.hosts: ["192.168.26.22:9300","192.168.26.22:9301","192.168.26.22:9302"]
discovery.zen.minimum_master_nodes: 2
注:本機虛擬機ip:192.168.26.22 請自行更改
2.3 調高JVM線程數限制數量
在centos窗口中,修改配置sysctl.conf
vi /etc/sysctl.conf
加入如下內容:
vm.max_map_count=262144
啓用配置:
sysctl -p
注:這一步是爲了防止啓動容器時,報出如下錯誤:
bootstrap checks failed max virtual memory areas vm.max_map_count [65530] likely too low, increase to at least [262144]
三、啓動ElasticSearch集羣容器
啓動ElasticSearch集羣容器
在centos窗口中,執行如下命令:
# 使用鏡像 elasticsearch:6.4.3,(-d)以後臺模式啓動一個容器,將容器的 9300 端口映射到主機的 9300 端口,主機的目錄 url 映射到容器的 url,容器的別名爲ES01
docker run -e ES_JAVA_OPTS="-Xms256m -Xmx256m" -d -p 9200:9200 -p 9300:9300 -v /root/tool/ES/config/es1.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /root/tool/ES/data1:/usr/share/elasticsearch/data --name ES01 elasticsearch:6.4.3
docker run -e ES_JAVA_OPTS="-Xms256m -Xmx256m" -d -p 9201:9201 -p 9301:9301 -v /root/tool/ES/config/es2.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /root/tool/ES/data2:/usr/share/elasticsearch/data --name ES02 elasticsearch:6.4.3
docker run -e ES_JAVA_OPTS="-Xms256m -Xmx256m" -d -p 9202:9202 -p 9302:9302 -v /root/tool/ES/config/es3.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /root/tool/ES/data3:/usr/share/elasticsearch/data --name ES03 elasticsearch:6.4.3
注:設置-e ES_JAVA_OPTS="-Xms256m -Xmx256m" 是因爲/etc/elasticsearch/jvm.options 默認jvm最大最小內存是2G,讀者啓動容器後 可用docker stats命令查看
四、驗證是否搭建成功
4.1在瀏覽器地址欄訪問http://192.168.26.22:9200/_cat/nodes?pretty 查看節點狀態
192.168.26.22 38 93 6 0.83 2.63 1.63 mdi - es-node2
192.168.26.22 56 93 6 0.83 2.63 1.63 mdi * es-node1
192.168.26.22 35 93 6 0.83 2.63 1.63 mdi - es-node3
注:節點名稱帶表示爲主節點*
4.2 使用elasticsearch-head前端框架
1.拉取鏡像
docker pull mobz/elasticsearch-head:5
2.啓動容器
docker run -d -p 9100:9100 --name es-manager mobz/elasticsearch-head:5
3.瀏覽器訪問http://192.168.22.26:9100/
寫在最後,這裏要多提一點索引分片設置以及副本,官方推薦設置,讀者根據自身需要進行修改:
curl -XPUT ‘http://localhost:9200/_all/_settings?preserve_existing=true’ -d ‘{
“index.number_of_replicas” : “1”,
“index.number_of_shards” : “10”
}’
附錄:
- 查看容器內存
docker stats $(docker ps --format={{.Names}})
- 查看容器日誌
docker logs 容器名/容器ID
- ElasticSearch配置文件說明
cluster.name: elasticsearch-cluster
node.name: es-node1
#index.number_of_shards: 2
#index.number_of_replicas: 1
network.bind_host: 0.0.0.0
network.publish_host: 192.168.26.22 兩行代碼燈影network.port:192.168.26.22 未驗證
http.port: 9200
transport.tcp.port: 9300
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true
node.data: true
discovery.zen.ping.unicast.hosts: ["es-node1:9300","es-node2:9301","es-node3:9302"]
discovery.zen.minimum_master_nodes: 2
注:
- cluster.name:用於唯一標識一個集羣,不同的集羣,其 cluster.name 不同,集羣名字相同的所有節點自動組成一個集羣。如果不配置改屬性,默認值是:elasticsearch。
- node.name:節點名,默認隨機指定一個name列表中名字。集羣中node名字不能重複
- index.number_of_shards: 默認的配置是把索引分爲5個分片
- index.number_of_replicas:設置每個index的默認的冗餘備份的分片數,默認是1
通過 index.number_of_shards,index.number_of_replicas默認設置索引將分爲5個分片,每個分片1個副本,共10個結點。
禁用索引的分佈式特性,使索引只創建在本地主機上:
index.number_of_shards: 1
index.number_of_replicas: 0
但隨着版本的升級 將不在配置文件中配置而實啓動ES後,再進行配置
- bootstrap.memory_lock: true 當JVM做分頁切換(swapping)時,ElasticSearch執行的效率會降低,推薦把ES_MIN_MEM和ES_MAX_MEM兩個環境變量設置成同一個值,並且保證機器有足夠的物理內存分配給ES,同時允許ElasticSearch進程鎖住內存
- network.bind_host: 設置可以訪問的ip,可以是ipv4或ipv6的,默認爲0.0.0.0,這裏全部設置通過
- network.publish_host:設置其它結點和該結點交互的ip地址,如果不設置它會自動判斷,值必須是個真實的ip地址
同時設置bind_host和publish_host兩個參數可以替換成network.host
network.bind_host: 192.168.9.219
network.publish_host: 192.168.9.219
=>network.host: 192.168.9.219
- http.port:設置對外服務的http端口,默認爲9200
- transport.tcp.port: 設置節點之間交互的tcp端口,默認是9300
- http.cors.enabled: 是否允許跨域REST請求
- http.cors.allow-origin: 允許 REST 請求來自何處
- node.master: true 配置該結點有資格被選舉爲主結點(候選主結點),用於處理請求和管理集羣。如果結點沒有資格成爲主結點,那麼該結點永遠不可能成爲主結點;如果結點有資格成爲主結點,只有在被其他候選主結點認可和被選舉爲主結點之後,才真正成爲主結點。
- node.data: true 配置該結點是數據結點,用於保存數據,執行數據相關的操作(CRUD,Aggregation);
- discovery.zen.minimum_master_nodes: //自動發現master節點的最小數,如果這個集羣中配置進來的master節點少於這個數目,es的日誌會一直報master節點數目不足。(默認爲1)爲了避免腦裂,個數請遵從該公式 => (totalnumber of master-eligible nodes / 2 + 1)。 * 腦裂是指在主備切換時,由於切換不徹底或其他原因,導致客戶端和Slave誤以爲出現兩個active master,最終使得整個集羣處於混亂狀態*
- discovery.zen.ping.unicast.hosts: 集羣個節點IP地址,也可以使用es-node等名稱,需要各節點能夠解析