打开ElasticSearch、kibana、logstash的正确方式

2020年05月10日 阅读数:57
这篇文章主要向大家介绍打开ElasticSearch、kibana、logstash的正确方式,主要内容包括基础应用、实用技巧、原理机制等方面,希望对大家有所帮助。

做者:玩世不恭的Coder
时间:2020-03-08
说明:原创不易,本文为原创文章,未经容许不可转载,转载前请联系做者javascript

打开ElasticSearch、kibana、logstash的正确方式

前言1、ELK系统的搭建Elasticsearch的安装安装kibana安装logstash2、基于Logstash对Elasticsearch索引库中数据的导入和导出使用logstash将es数据从索引库中导出logstash对Elasticsearch索引库中数据的导入3、安装ik中文分词器ik中文分词器插件的安装分词结果测试4、Elasticsearch集群的搭建建立集群所须要的配置文件及数据文件,以便容器的映射建立elasticsearch容器并启动所遇问题java

前言

Elasticsearch是什么?为何每次学习一门技术都是英文的呢?真的是脑阔疼。既然它是英文的,咱们不妨借助有道来初步的看看Elasticsearch究竟是何方神圣,竟如此多娇。其分为elastic和search两个独立的单词,咱们来无脑有道一波看看,获得的解释以下:node

从有道的解释来看,咱们能够简单的对其理解为:Elasticsearch是及其具备弹性的、灵活的、像松紧带同样的且可供搜寻检索的一款工具。o(*≧▽≦)ツ┏━┓python

百度百科对其解释以下:git

ElasticSearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java语言开发的,并做为Apache许可条款下的开放源码发布,是一种流行的企业级搜索引擎。ElasticSearch用于云计算中,可以达到实时搜索,稳定,可靠,快速,安装使用方便。官方客户端在Java、.NET(C#)、PHP、Python、Apache、Groovy、Ruby和许多其余语言中都是可用的。根据DB-Engines的排名显示,Elasticsearch是最受欢迎的企业搜索引擎,其次是Apache Solr,也是基于Lucene。github

从如上信息咱们能够得知,Elasticsearch是一款实时、分布式存储的搜索引擎,在实际开发过程当中,咱们经常会把数据放在Elasticsearch搜索引擎中,而后从引擎中去实际须要的数据。并且在实际搜索过程当中,咱们也会有许多的Api支持来对数据进行检索,好比排序、条件查询等,其中在Elasticsearch中最为强大之处就是他的模糊检索功能。讲到这,可能有些Mysql经验但没接触过Elasticsearch的朋友可能会有个疑问,Mysql大法不是无敌么,其中的like语句不能模糊查询么?where and不能条件检索么?orderby不能对数据进行排序么?我随随便便就信手拈来一个Sql语句不就能实现业务的需求么:web

select department_name, count(*) 员工个数
from departments d, employees e
where d.department_id = e.department_id
group by d.department_id
having count(*)>5
order by count(*) desc;

是这样没错,以上SQL代码的确可以实现实际需求,可是当咱们的业务逐渐变得复杂、庞大,咱们的用户量愈来愈多,咱们就不得不站在用户的角度来想一想了。试想一下,假设哪些淘宝er天天打开淘宝搜索本身想要的数据时都要等个几十秒,那会是怎样的一种画面。又好比,在打开咱们常见文件来检索咱们须要数据的时候,好比txt、word、excel,咱们通常都能迅速打开,那是由于这些文件占用实际空间都过小,这些文件大多就几kb,假设咱们打开一个以G为单位的日志文件,此时的系统还能像以往那样正常么?换言之,Elasticsearch采用的是索引搜索,可以具备强大的搜索能力,可以达到实时搜索,稳定,可靠,快速,安装的效用。sql

另外,Elasticsearch在处理日志的过程当中,其经常与数据收集和日志解析引擎Logstash以及名为Kibana的分析和可视化平台配合使用,也就是常说的ELK系统。文本将主要介绍如下几个方面的内容docker

  • 基于Docker容器来搭建ELK
  • Elasticsearch集群的搭建
  • 在Elasticsearch中引入IK分词器插件
  • 基于Logstash对Elasticsearch索引库中数据的导入和导出

1、ELK系统的搭建

Elasticsearch是实时全文搜索和分析引擎,提供搜集、分析、存储数据三大功能;是一套开放REST和JAVA API等结构提供高效搜索功能,可扩展的分布式系统。它构建于Apache Lucene搜索引擎库之上。shell

Logstash是一个用来搜集、分析、过滤日志的工具。它支持几乎任何类型的日志,包括系统日志、错误日志和自定义应用程序日志。它能够从许多来源接收日志,这些来源包括 syslog、消息传递(例如 RabbitMQ)和JMX,它可以以多种方式输出数据,包括电子邮件、websockets和Elasticsearch。
1
Kibana是一个基于Web的图形界面,用于搜索、分析和可视化存储在 Elasticsearch指标中的日志数据。它利用Elasticsearch的REST接口来检索数据,不只容许用户建立他们本身的数据的定制仪表板视图,还容许他们以特殊的方式查询和过滤数据

总结就是Elasticsearch用于搜索,Kibana用于可视化,Logstash用于搜集。下面咱们来基于Docker来搭建一下ELK系统,关于Docker的安装及基本使用,前面的文章已经有过记录了,此处再也不过多的介绍。另外,值得注意的是这三者之间的版本关系,(若是使用其余版本的工具,则按照以下方式搭建可能会产生其余问题):

  • Elasticsearch:5.6.8
  • Kibana:5.6.8
  • Logstash:lastest

Elasticsearch的安装

  • Docker拉取Elasticsearch镜像
docker pull elasticsearch:5.6.8
  • 在本地建立elasticsearch容器所映射的配置文件以及data目录

这里须要将http.host配置成0.0.0.0的受权对象,并将配置写入config目录下的elasticsearch.yml配置文件中

# 在centos本地建立配置文件,并配置
mkdir -p /resources/elasticsearch/config        # 建立config目录
mkdir -p /resources/elasticsearch/data             # 建立data目录
# 将http.host配置为0.0.0.0的受权对象,将配置写入config目录下的elasticsearch.yml配置文件中
echo "http.host: 0.0.0.0" >> /resources/elasticsearch/config/elasticsearch.yml
  • 建立一个elasticsearch容器,并开机自运行

首先须要建立容器并开机运行(single-node表示单节点模式,后面会介绍集群方式下elasticsearch的搭建),而后将elasticsearch容器设置为开机自启动。穿件es容器时的参数介绍以下:

  1. --name:为容器起一个别名
  2. -p:将容器的运行端口映射到本地端口
  3. "discovery.type=single-node":表示单节点模式下建立,后文将介绍集群模式的搭建
  4. -v:表示将容器中的配置文件和data文件映射到上文本地所建立的文件,方便后面的配置
# 建立容器并开机运行(single-node表示单节点模式,后面会介绍集群方式下elasticsearch的搭建)
# 注意:在docker中\表示换行
docker run --name elasticsearch -p 9200:9200 \
-e "discovery.type=single-node" \
-e ES_JAVA_OPTS="-Xms256m -Xmx256m" \
-v /resources/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
-v /resources/elasticsearch/data:/usr/share/elasticsearch/data -d elasticsearch:5.6.8
# 参数介绍:
# --name:为容器起一个别名
# -p:将容器的运行端口映射到本地端口
# -e "discovery.type=single-node":表示单节点模式下建立,后文将介绍集群模式的搭建
# -v:表示将容器中的配置文件和data文件映射到上文本地所建立的文件,方便后面的配置

# 将elasticsearch容器设置为开机自启动
docker update new-elasticsearch --restart=always

这样一来,咱们便安装好elasticsearch了,咱们可使用curl命令来测试一下:

# 使用curl来访问elasticsearch的运行端口
curl localhost:9200
# 运行输出结果以下则成功安装
{
  "name" : "XwmNOpR",
  "cluster_name" : "elasticsearch",
  "cluster_uuid" : "yB3VNHxmQzevk1vXUQTkcg",
  "version" : {
    "number" : "5.6.8",
    "build_hash" : "688ecce",
    "build_date" : "2018-02-16T16:46:30.010Z",
    "build_snapshot" : false,
    "lucene_version" : "6.6.1"
  },
  "tagline" : "You Know, for Search"
}

固然了,咱们也可使用浏览器来对其进行访问,访问方式为http://[ip]:9200,端口为虚拟机ip,一样能够获得对应的结果,另外若是使用的是Aliyun或腾讯云服务器,则须要在控制台中配置相应的安全组,不然没法访问

安装kibana

  • Docker拉取Kibana镜像
# Docker拉取Kibana镜像
docker pull kibana:5.6.8
  • 建立容器并设置开机自启动
# 建立容器kibana容器,对应的参数如上,另外须要指定elasticsearch的地址
docker run --name kibana -e ELASTICSEARCH_URL=http://[ip]:9200 -p 5601:5601 \
-d kibana:5.6.8
# 配置开机自启动
docker update new-kibana --restart=always

安装完成以后,咱们即可curl一下kibana的地址,或在浏览器访问http://[ip]:5601便可获得对应的输出:

[root@iZm5eei156c9h3hrdjpe77Z ~]# curl localhost:5601
<script>var hashRoute = '/app/kibana';
var defaultRoute = '/app/kibana';

var hash = window.location.hash;
if (hash.length) {
  window.location = hashRoute + hash;
else {
  window.location = defaultRoute;
}</script>[root@iZm5eei156c9h3hrdjpe77Z ~]

安装logstash

  • 拉取Logstash镜像
# 拉取镜像
docker pull logstash
  • 建立一个配置文件,并进行input和output的配置

在/resources/logstash中建立logstash.conf文件,并使用vim来对其进行编辑,配置的过程以下:

# 在/resources/logstash中建立logstash.conf文件,并使用vim来对其进行编辑
mkdir /resources/logstash
# 使用vim编辑
vim logstash.conf
# 配置文件内容以下,更换为本身Elasticsearch的ip便可
input {
    tcp {
        port => 4560
        codec => json_lines
    }
}
output{
  elasticsearch { 
    hosts => ["[ip]:9200"
    index => "applog"
    }
  stdout { codec => rubydebug }
}
  • 建立容器并开机自启动
# 建立容器,这里须要指明Elasticsearch来进行连接
docker run -d -p 4560:4560 \
-v /resources/logstash/logstash.conf:/etc/logstash.conf \
--link elasticsearch:elasticsearch \
--name logstash logstash \
logstash -f /etc/logstash.conf

#
 开机自启动
docker update new-logstash --restart=always

以上即是Logstash的安装过程,咱们能够进入Logstash容器内来简单的使用一下。

进入Logstash容器,并cd到bin目录

docker exec -it logstash /bin/bash
cd /usr/share/logstash/bin

执行logstash命令,注意:须要这里须要指定--path.data参数,不然在运行的过程会出错

# 注意:须要这里须要指定--path.data参数,不然在运行的过程会出错
logstash -e 'input { stdin { } } output { stdout {} }' --path.data=/root/

运行以后,咱们在控制台输入hello world,即会出现如下结果


2、基于Logstash对Elasticsearch索引库中数据的导入和导出

应用需求:在192.168.220.201主机中的es中并无info索引库,而192.168.220.202中的es有info索引库,此时咱们能够尝试借助logstash来先将skuinfo索引库从192.168.220.202导出成一个json文件,而后将该文件借助logstash导入到192.168.220.201的es索引库中。这样的需求该如何实现呢?

使用logstash将es数据从索引库中导出

建立一个临时的文件夹,用于保存导出的数据以及配置文件,以后使用vim来建立一个export.conf配置文件,并对其进行配置

mkdir /resources/mydata/logstash_temp
vim export.conf

export.conf文件的配置内容以下

#  将192.168.220.202 Elasticsearch中info索引库导出为一个info.json文件
input{
     elasticsearch {
        hosts => ["192.168.220.202:9200"]   # 指定Elasticsearch的地址,该地址中含有目标数据
                index => "info"             # 指定须要导出的索引库
                size => 200                 # 指定每次导出数据每批次的大小,注意不能设置太大,不然会出错
            scroll => "5m"
                docinfo => false
    }
}
output{
   file {
     path => "info.json"                 # 指定保存的数据路径和json文件的名称
   }
 }

使用docker cp命令将该导出的配置文件复制的logstash容器的bin目录中

# 将export.conf文件cp到logstash容器中
docker cp ./export.conf logstash:/usr/share/logstash/bin

进入logstash容器,并执行配置文件,注意:务必要指定path.data属性,否则会报错

# 进入logstash,而后执行配置文件
docker exec -it logstash /bin/bash
cd /usr/share/logstash/bin
./logstash -f ./export.conf --path.data=/root/ # 务必要指定path.data属性,否则会报错

执行完成以后便会在当前目录下产生一个info.json文件,咱们将该数据文件导出到centos中

# 执行完成以后就会在当前目录下产生一个info.json文件,将该文件导出到centos中
docker cp logstash:/usr/share/logstash/bin/info.json /resources/mydata/

便可完成将索引库中的数据导出成一个json文件,该文件存在于/resources/mydata/info.json

logstash对Elasticsearch索引库中数据的导入

  • 完成json数据的导入及conf文件的配置
  1. 将192.168.220.202中的info.json文件使用xftp工具导入到windows本地
  2. 将该文件经过xftp工具导入到192.168.220.201 /resources/mydata/logstash_temp中
  3. 采用vim对import.conf配置文件进行编辑
# 1. 将192.168.220.202中的info.json文件使用xftp工具导入到windows本地
# 2. 将该文件经过xftp工具导入到192.168.220.201 /resources/mydata/logstash_temp中
cd /mydata/mysources/logstash_temp
# 使用vim对import.conf进行配置
vim import.conf
  • import.conf的配置文件以下
# 读取json文件
input {
  file {
    # 设置json文件路径,多个文件路径可设置成数组[],模糊匹配用*
    path => "/root/info.json"
    start_position => "beginning"
    # 设置编码
    codec => json {charset => "UTF-8"}
    # 当存在多个文件的时候可以使用type指定输入输出路径
    type => "json_index"
  }
}

# 过滤格式化数据
filter {
    mutate{
        #删除无效的字段
        remove_field => ["@version","message","host","path"]
    }
    # 新增timestamp字段,将@timestamp时间增长8小时
    ruby { code => "event.set('timestamp', event.get('@timestamp').time.localtime + 8*60*60)" }

}

# 数据输出到ES
output {
    #日志输出格式,json_lines;rubydebug等
    stdout {
        codec => rubydebug
    }
    #输出到es
    if[type] == "json_index"{
        #没法解析的json不记录到elasticsearch中
        if "_jsonparsefailure" not in [tags] {
            elasticsearch {
                #es地址ip端口
                hosts => "192.168.220.201:9200"
                # 配置数据转入到es中的
                index => "info"
                #类型
                document_type => "info"
            }
        }
    }
}
  • 完成import.conf文件的配置以后,咱们便可来真正实现数据导入
# 将import.conf文件和info.json文件导入到logstash容器中
docker cp ./import.conf logstash:/usr/share/logstash/bin    # 导入conf配置文件
docker cp ./skuinfo.json logstash:/root/                    # 导入json数据文件,导入的路径注意与conf配置文件中的配置路径保持一致
# 进入到logstash容器中,并执行logstash命令完成数据的导入
docker exec -it logstash /bin/bash
cd /usr/share/logstash/bin
./logstash -f ./import.conf --path.data=/root/

等待执行完成以后访问192.168.220.201:5601便可访问到info索引库中的数据


3、安装ik中文分词器

ik中文分词器插件的安装

坑一:咱们安装ik分词器的时候,通常是在github中来下载zip文件,而后传送到centos中,最后再上传到elasticserch容器中,可是github中标明的版本与实际版本根本不相同。另外一方面,在咱们下载不一样版本的elasticsearch时,有的版本容器运行会出错,有些正常。因此咱们之后咱们搭建elk的时候就同一安装5.6.8版本(必定要注意)

坑二:咱们通常在github上下载zip文件(不管什么文件)的时候会很是很是的慢(不是通常的慢),因此咱们之后在使用github来下载的时候能够借助gitee(码云)来下载,在码云中建立一个仓库的时候,选择导入已有的仓库,而后将原github的git链接复制粘贴上去,最后create。一旦建立,咱们就能够借助码云中来间接下载github仓库的任何文件,且下载的速度会大大加快

具体安装过程及代码示例以下:

  1. 下载5.6.8的ik分词器:https://gitee.com/tianxingjian123/elasticsearch-analysis-ik
  2. 使用maven将其打包:cd到ik目录,而后mvn打包:mvn package -Pdist,native -DskipTests -Dtar
  3. 使用maven打包完成以后,便可生成一个target文件夹,里面有./releases/elasticsearch-analysis-ik-5.6.8.zip压缩文件
  4. 在虚拟机中建立一个ik文件夹,并将该zip文件上传到ik文件夹中,而后使用unzip命令解压该zip文件,解压以后删除zip文件便可
  5. 以后使用docker将该ik文件夹传到elasticsearch容器的plugins中
  6. 进入elasticsearch容器,使用ls命令可查看是否成功上传ik文件夹

ik分词器连接:https://gitee.com/tianxingjian123/elasticsearch-analysis-ik

# ik分词器连接:https://gitee.com/tianxingjian123/elasticsearch-analysis-ik
# 下载5.6.8的ik分词器以后,咱们须要使用maven将其打包
cd C:\Users\M\Desktop\code-demo\elasticsearch-analysis-ik
mvn package -Pdist,native -DskipTests -Dtar
# 使用maven打包完成以后,便可生成一个target文件夹,里面有./releases/elasticsearch-analysis-ik-5.6.8.zip
# 在虚拟机中建立一个ik文件夹
mkdir ik
# 以后使用xftp将该zip文件上传到ik文件夹中,而后使用unzip命令解压该zip文件,解压以后删除zip文件
unzip elasticsearch-analysis-ik-5.6.8.zip
rm -rf elasticsearch-analysis-ik-5.6.8.zip
# 以后使用docker将该ik文件夹传到elasticsearch容器的plugins中
docker cp ./ik elasticsearch:/usr/share/elasticsearch/plugins
# 进入elasticsearch容器
docker exec -it new-elasticsearch /bin/bash
# 以后以下命令可查看是否成功上传ik文件夹
root@78f36ce60b3f:/usr/share/elasticsearch# cd plugins/
root@78f36ce60b3f:/usr/share/elasticsearch/plugins# ls
ik
root@78f36ce60b3f:/usr/share/elasticsearch/plugins# cd ik
root@78f36ce60b3f:/usr/share/elasticsearch/plugins/ik# ls
commons-codec-1.9.jar             httpclient-4.5.2.jar
commons-logging-1.2.jar             httpcore-4.4.4.jar
config                     plugin-descriptor.properties
elasticsearch-analysis-ik-5.6.8.jar
root@78f36ce60b3f:/usr/share/elasticsearch/plugins/ik# 
# 以后进入到bin目录下,并查看已经安装的ik分词器插件
root@78f36ce60b3f:cd /usr/share/elasticsearch/bin
root@78f36ce60b3f:/usr/share/elasticsearch/bin# elasticsearch-plugin list
ik

以上操做完成以后,就算是完成了在Elasticsearch中引入ik中文分词器插件了,注意:以上步骤务必须要彻底一致,不然会形成各类大大小小的问题。

分词结果测试

# 打开chrom浏览器,访问:http://192.168.220.201:5601/,若出现kibana界面,说明kibana安装正常
# 进入kibana的Dev Tools界面,而后使用以下测试ik中文分词器插件是否正常安装
GET bank/_analyze
{
  "text""如今是大年三十凌晨一点三十分,有点冷,我写完这篇文章就睡觉!",
  "analyzer""ik_smart"
}

运行以后,测试ik中文分词结果以下,可见已经完成了对中文句子的分词


4、Elasticsearch集群的搭建

建立集群所须要的配置文件及数据文件,以便容器的映射

在每一次搭建的时候都须要注意要确保data目录下为空,不然在实际运行过程当中会出错

mkdir /mydata
cd /mydata
mkdir elasticsearch1
cd elasticsearch1
mkdir data # 注意要确保data目录下为空,不然在实际运行过程当中会出错
mkdir config
cd conf
vim elasticsearch.yml
# elasticsearch.yml文件配置信息以下

elasticsearch.yml文件的配置信息以下,注意须要配置一下几点:

  1. 开启跨域,为了让es-head能够访问,此处须要额外安装header插件
  2. 设置集群的名称(每一个集群节点的设置须要同样)
  3. 指定该节点是否有资格被选举成为master节点,默认是true,es是默认集群中的第一台机器为master,若是这台机挂了就会从新选举master
  4. 容许该节点存储数据(默认开启)以及容许任何ip进行访问
# 开启跨域,为了让es-head能够访问,此处须要额外安装header插件
http.cors.enabled: true
http.cors.allow-origin: "*"

# 集群的名称(同样)
cluster.name: elasticsearch
# 节点的名称(不同,根据别名来配置)
node.name: es1
# 指定该节点是否有资格被选举成为master节点,默认是true,es是默认集群中的第一台机器为master,若是这台机挂了就会从新选举master
node.master: true
# 容许该节点存储数据(默认开启)
node.data: true
# 容许任何ip访问
network.host: 0.0.0.0
# 经过这个ip列表进行节点发现,我这里配置的是各个容器的ip
discovery.zen.ping.unicast.hosts: ["192.168.220.200:9300","192.168.220.200:9301","192.168.220.200:9302"]
#若是没有这种设置,遭受网络故障的集群就有可能将集群分红两个独立的集群 – 致使脑裂 - 这将致使数据丢失
discovery.zen.minimum_master_nodes: 2

第一个elasticsearch配置文件建立好后,同理建立其余两个节点

# 配置es2
cd /mydata
cp -r ./elasticsearch1 ./elasticsearch2
# 将其中的conf/elasticsearch.yml中配置修改一处信息
node.name=es2

# 配置es3
cd /mydata
cp -r ./elasticsearch1 ./elasticsearch3
# 将其中的conf/elasticsearch.yml中配置修改一处信息
node.name=es3

建立elasticsearch容器并启动

# 建立es1容器并启动
docker run --name es1 -p 9200:9200 -p 9300:9300 \
-e ES_JAVA_OPTS="-Xms256m -Xmx256m" \
-v /mydata/elasticsearch1/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
-v /mydata/elasticsearch1/data:/usr/share/elasticsearch/data -d elasticsearch:5.6.8

# 引入ik分词器
docker cp ./ik es1:/usr/share/elasticsearch/plugins

# 建立es2容器并启动
docker run --name es2 -p 9201:9200 -p 9301:9300 \
-e ES_JAVA_OPTS="-Xms256m -Xmx256m" \
-v /mydata/elasticsearch2/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
-v /mydata/elasticsearch2/data:/usr/share/elasticsearch/data -d elasticsearch:5.6.8

# 建立es3容器并启动
docker run --name es3 -p 9202:9200 -p 9302:9300 \
-e ES_JAVA_OPTS="-Xms256m -Xmx256m" \
-v /mydata/elasticsearch3/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \
-v /mydata/elasticsearch3/data:/usr/share/elasticsearch/data -d elasticsearch:5.6.8

至此,完成以上操做便可实现了Elasticsearch集群的搭建

  • 分别访问http://192.168.220.200:9200、http://192.168.220.200:920一、http://192.168.220.200:9202,便可发现已经搭建完成,并显示了各个es节点的对应信息。
  • 访问http://192.168.220.200:9200/_cat/nodes可查看集群节点。
  • 访问http://192.168.220.200:9200//_cat/health查看健康情况(green,yellow、red)

所遇问题

  • 实例化容器以后,可能会受到进程数的限制,咱们须要提升虚拟机的进程数
vim /etc/sysctl.conf
# 添加以下一条配置
vm.max_map_count=655360
# 退出后重启配置
sysctl -p
  • 当实例化以上三个es容器以后,可能会存在必定的内存问题,这个时候,咱们须要提升虚拟机的内存

运行以上命令以后,可能会发现当前可用配置只有50多,并且当咱们访问http://192.168.220.200:9200的时候也会发现请求失败这个时候咱们打开对应虚拟机的设置,将内存设置3GB便可,不一下子从新进入虚拟机,使用free -m命令便可发现此时内存还剩1000多可用

# 实例化以上三个es容器以后,查看当前可用内存
free -m
# 运行以上命令以后,可能会发现当前可用配置只有50多,并且当咱们访问http://192.168.220.200:9200的时候也会发现请求失败这个时候咱们打开对应虚拟机的设置,将内存设置3GB便可,不一下子从新进入虚拟机,使用free -m命令便可发现此时内存还剩1000多可用

# 完成上述配置以后,咱们重启三个es容器
docker restart es1 es2 es3 || docker start es1 es2 es3

# 等待容器重启以后,使用chrom浏览器访问es
http://192.168.220.200:9200
http://192.168.220.200:9201
http://192.168.220.200:9202
# 可发现已经搭建完成,且显示了各个es节点的对应信息

# 在kibana的dev tools下查看集群节点
GET /_cat/nodes
# 查看健康情况(green,yellow、red)
GET /_cat/health
2020-03-08,By 涛涛,于上饶