Elasticsearch+Marvel+Kibana集群搭建

Elasticsearch 2.x 与 Elasticsearch 1.x 的安装配置过程略有不同,本篇主要讲解2.x版本的安装过程。
因权限问题,本篇不涉及将Elasticsearch、Kibana配置为系统服务来启动,只作为普通用户来运行启动服务。若需将Elasticsearch、Kibana配置为系统服务,参考官网中的教程。

Elasticsearch 2.x要求Java版本>=1.7。若默认版本<1.7,重现安装Java,或者使用
export JAVA_HOME = your_install_path/jdk1.7.0_xx

安装、配置Elasticsearch2.x、Marvel

安装Elasticsearch2.x、Marvel

# 从官网下载Elasticsearch2.x,解压并进入Elasticsearch文件夹
tar -zxvf elasticsearch-2.3.1.tar.gz
cd elasticsearch-2.3.1

# 安装Marvel
bin/plugin install license
bin/plugin install marvel-agent

配置Elasticsearch2.x、Marvel

配置Elasticsearch集群主要通过修改config目录下的配置文件elasticsearch.yml进行。config目录下有两个配置文件elasticsearch.yml、logging.yml,分别用来配置elasticsearch服务、配置elasticsearch的日志输出。Elasticsearch的默认配置文件elasticsearch.yml已经能满足大规模集群的使用,只需要修改部分配置即可,我的配置文件如下:

cluster.name: xin-elasticsearch
node.name: node-ip_adrr
network.host: ip_adrr
discovery.zen.ping.multicast.enabled: false
discovery.zen.ping.unicast.hosts: ["ip_adrr:9300","ip_adrr1:9300","ip_adrr2:9300","ip_adrr3:9300"]
discovery.zen.minimum_master_nodes: 2
marvel.agent.exporter.es.hosts: ["ip_adrr5:9200"]

主要修改配置说明:

cluster.name# 集群名。同网段内有多个节点,节点之间通过集群名来确认对方是否属于同一集群
node.name# 节点名。默认自动获取节点名,建议手动设置为有标志性的名字
network.host# 主机IP。出于安全考虑,2.x版本默认为127.0.0.1
discovery.zen.ping.multicast.enabled# 多播通信发现集群节点。2.x版本建议关闭该项,会造成局域网流量过大
discovery.zen.ping.unicast.hosts# 单播通信发现集群节点时,集群中所有elasticsearch节点的地址和端口
discovery.zen.minimun_master_nodes,  # 准Master节点数目,当Master节点挂掉后从中选举新Master,该项不必配置。
marvel.agent.exporter.es.hosts# marvel的地址和端口,也就是Kibana安装的主机的地址和端口

以非系统服务的方式启动Elasticsearch2.x:./bin/elasticsearch -d

安装、配置Kibana

安装Kibana

从官网下载Kibana4.x,解压并进入Kibana文件夹,安装Marvel:bin/kibana plugin --install elasticsearch/marvel/latest

配置Kibana

修改config目录下的配置文件kibana.yml,修改elasticsearch.url为Elasticsearch集群中的任一节点的地址和端口。例如 elasticsearch.url: "http://ip_addr:9200

以非系统服务方式启动Kibana4.x(logs为自定义目录,用来存储Kibana日志):./bin/kibana 1>>logs/kibana.log 2>>logs/kibana.log &

发布了30 篇原创文章 · 获赞 58 · 访问量 18万+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章