标签:启动 RoCE ttl ulimit number 收集器 reference path 服务器
Elastic:使用Heartbeat进行Uptime监控
Elastic在6.5的版本中推出Heartbeat。Heartbeat 也就是我们通常所说的心跳。我们知道在医院,医生是用听心跳来判断一个人是否有生命迹象。在Elastic的Heartbeat里,它也是一样的道理。Heartbeat是一个轻量级的数据收集器。它用来帮我们进行uptime的健康监控。它可以帮我们查看一个服务器及服务器中一些服务是否运行正常。
心跳可以在网络内部或外部运行。 它所需要的就是通过网络访问所需的HTTP,TCP或ICMP端点。 配置就像向Heartbeat提供您要监视的URL列表一样简单。 心跳将执行定期检查以验证端点是否处于运行状态,然后将此信息以及其他有用的指标报告给Elasticsearch。 该信息会自动显示在预建的Kibana仪表板中,以监控服务器或服务的正常运行。
Elastic使用heartbeat来进行Uptime的监控的架构可以表述如下:
让我们仔细看看如何在Elastic Stack中设置和使用心跳。
如果我们打开我们的Kibana并点击Uptime应用,那么第一次打开的时候,我们可以看到,如下的界面。
点击Configure Heartbeat,可以选择我们所关心的平台来进行安装。:
curl -L -O https://artifacts.elastic.co/downloads/beats/heartbeat/heartbeat-7.5.0-linux-x86_64.tar.gz
tar xzvf heartbeat-7.5.0-linux-x86_64.tar.gz
cd heartbeat-7.5.0-linux-x86_64/
在实际的使用中,可以根据自己的Elasticsearch的版本选择一样版本的Heartbeat。我们进入到Heartbeat的安装目录:
$ ls
LICENSE.txt fields.yml heartbeat.yml
NOTICE.txt heartbeat kibana
README.md heartbeat.reference.yml monitors.d
从上面我们可以看出来在heartbeat的安装目录中,有一个叫做heartbeat.yml的配置文件。同时在monitor.d目录中,有几个样本的http, icmp及tcp协议的配置文件。
为了使Heartbeat知道要检查的服务,它需要一个URL列表。 在heartbeat文件夹下的heartbeat.yml文件中指定了此配置。 这是使用Heartbeat进行多个HTTP检查的示例,该检查每10秒运行一次:
# Configure monitors
heartbeat.monitors:
- type: http
# List or urls to query
urls:
- "https://www.elastic.co"
- "https://discuss.elastic.co"
# Configure task schedule
schedule: '@every 10s'
除了HTTP/S监视器,Heartbeat还可以执行TCP和ICMP检查,因此您可以更好地了解服务的不同层。 在心跳中,我们还可以定义其他检查层,例如,使用HTTP/S监视器,我们可以检查响应代码(code),正文(body)和标头(header)。 使用TCP监视器,我们可以定义端口检查和字符串检查。
heartbeat.monitors:
- type: http
# List or urls to query
urls: ["http://localhost:9200"]
# request details:
check.request:
method: GET
check.response:
body: "You Know, for Search"
# Configure task schedule
schedule: '@every 10s'
这是HTTP正文检查的示例,其中Heartbeat在http//localhost:9200(配置中指定的唯一URL)中寻找字符串“ You Know,for Search”。如果没有找到这个字符串,说明这个服务器是死掉了。
在所有心跳监视器上,我们可以定义其他参数,例如name, timeout和schedule。 您可以在配置心跳文档中找到完整的配置说明。
配置的最后一步是设置心跳输出(将数据发送到的位置)。 受支持的输出包括自我管理的Elasticsearch集群,Elastic Cloud,Logstash等。 在此示例中,我将心跳数据发送到我的本地Elasticsearch实例(“localhost:9200”)中:
output.elasticsearch:
# Array of hosts to connect to.
hosts: ["localhost:9200"]
# Optional protocol and basic auth credentials.
#protocol: "https"
username: "elastic"
password: "changeme"
您可以在heartbeat.reference.yml文件中找到具有完整配置的示例文件。
心跳带有预建的仪表板,这些仪表板可提供大量的可用的可视化面板。 使用以下命令设置仪表板并运行Heartbeat:
要在Kibana中设置Heartbeat仪表板:(可选,只需运行一次)
./heartbeat setup
接着运行Heartbeat:
./heartbeat -e
Heartbeat一旦开始运行,它将检查您配置的URL列表,将信息发送回Elastic Stack,并预填充Kibana仪表板。
下面我们用几个例子来展示如何使用Uptime来监控我们的服务的。
安装的步骤是这样的:
1)在一个Terminal中运行
docker network create elastic-network
2)在一个Terminal中启动第一个Docker,端口地址9200
docker run --rm --name esn01 -p 9200:9200 -v esdata01:/usr/share/elasticsearch/data --network elastic-network -e "node.name=esn01" -e "cluster.name=liuxg-docker-cluster" -e "cluster.initial_master_nodes=esn01" -e "bootstrap.memory_lock=true" --ulimit memlock=-1:-1 -e ES_JAVA_OPTS="-Xms512m -Xmx512m" docker.elastic.co/elasticsearch/elasticsearch:7.5.0
3)在另外一个Terminal中启动第二个Docker,端口地址9202
docker run --rm --name esn02 -p 9202:9200 -v esdata02:/usr/share/elasticsearch/data --network elastic-network -e "node.name=esn02" -e "cluster.name=liuxg-docker-cluster" -e "discovery.seed_hosts=esn01" -e "bootstrap.memory_lock=true" --ulimit memlock=-1:-1 -e ES_JAVA_OPTS="-Xms512m -Xmx512m" docker.elastic.co/elasticsearch/elasticsearch:7.5.0
4)在另外一个Terminal中启动Kibana,端口地址5601
docker run --rm --link esn01:elasticsearch --name kibana --network elastic-network -p 5601:5601 docker.elastic.co/kibana/kibana:7.5.0
这样我们的配置就运行好了。我们可以打开Kibana,并查看我们的node运行情况
我们可以看出来node运行正常。
5)在另外一个Terminal中运行heartbeat应用
因为我们想对我们的口地址为9202的Elasticsearch进行监控,那么,我们需要修改我们的heartbeat.yml口地址如下:
./heartbeat setup
./heartbeat -e
6)打开Uptime应用:
我们可以让我们的9202口地址的docker退出,过一会再重新开启。我们可以看出来如下的变化
由于我们的Kibana是连接到9200口地址的Elasticsearch,所以即使我们的9202口地址的Elasticsearch是退出了,那么我们的Kibana也可以照常工作。从上面我们可以看出来,我们的端口为9202的Elasticsearch服务器有上线和掉线的情况(红色为掉线,灰色为上线)。点击下方的超链接,我们可以看到更多的细节
在接下来的实验里,我们来通过 monitors.d里提供的yaml文件来进行我们的监视。我们可以在heartbeat.yml里看到:
我们可以看到上面有一个路径指向当前heartbeat安装目录下的monitors.d的目录。里面的每一个yml文件会自动成功一个uptime的配置文件,并收集数据。如果我们看一下在默认情况下的monitors.d目录下的文件:
$ ls monitors.d/
sample.http.yml.disabled sample.icmp.yml.disabled sample.tcp.yml.disabled
因为所有的扩展名为.disabled,它们在默认的情况下没有被自动启动。
首先用heartbeat.yml文件来覆盖我们之前的缺省heartbeat.yml文件:
heartbeat.yml:
heartbeat.config.monitors:
path: ${path.config}/monitors.d/*.yml
reload.enabled: true
reload.period: 5s
setup.template.settings:
index.number_of_shards: 1
index.codec: best_compression
tags: ["dev-web-services"]
fields:
env: dev
processors:
- add_observer_metadata:
netinfo.enabled: false
cache.ttl: 5m
geo:
name: dev-dc-1
location: 40.7128, -74.0060
continent_name: North America
country_iso_code: US
region_name: Atlanta
region_iso_code: GA
city_name: Rosewell
setup.kibana:
output.elasticsearch:
# Array of hosts to connect to.
hosts: ["localhost:9200"]
然后,创建并把icmp.yml文件拷入到monitors.d目录中。我们来首先看看icmp.yml里的内容:
icmp.yml
- type: icmp
name: ping-tests-google-dns
schedule: '*/5 * * * * * *'
hosts: ["8.8.8.8","8.8.4.4."]
ipv4: true
ipv6: false
mode: any
timeout: 16s
wait: 1s
fields:
env: dev
上面的配置文件非常地简单。它每隔5秒去ping一下谷歌的DNS服务器8.8.8.8及8.8.4.4。重新启动heartbeat应用
./heartbeat -e
注意:目前由于一些原因,针对ICMP的监测,我们必须使用root权限来运行。这在将来的版本中可能会有改变。:
chown root heartbeat.yml
chown root monitors.d/icmp.yml
sudo ./heartbeat -e
由于刚开始我使用的地址8.8.4.4.是错的。多了一个“.",所以,我们可以看到有一些红色。之后我矫正过后就可以看到连接的状态。
我们可以点击进入超链接,就可以看到每一个连接的具体情况
restful.http.yml
- type: http
name: product-service-restful
schedule: '@every 5s'
urls: ["http://localhost:9001/product/logstash"]
check.request:
method: GET
check.response:
status: 200
json:
- description: check status
condition:
equals:
name: "Logstash"
上面的restful.http.yml文件的意思是restful接口的返回结果是200,并且是JSON格式的输出,返回结果是“Logstash”。如果这样的条件满足的话,那么我们认为这个微服务是正常的。
现在我们重新运行我们的heartbeat:
./heartbeat -e
我们重新在我们的Kibana中查看,我们可以看到我们的Restful接口显示是在Up的状态。
soap.http.yml
- type: http
name: product-service-soap
schedule: '@every 5s'
urls: ["http://localhost:9002/ws/product"]
check.request:
method: POST
body: '<soapenv:Envelope xmlns:soapenv="http://schemas.xmlsoap.org/soap/envelope/" xmlns:ws="http://ws.elksoft.com/"> <soapenv:Header/> <soapenv:Body> <ws:getProduct> <arg0>logstash</arg0> </ws:getProduct> </soapenv:Body> </soapenv:Envelope>'
check.response:
status: 200
body: '(?s).*.<name>Logstash</name>.*'
这样我们配置成功后,我们重新运行我们的heartbeat应用:
./heartbeat -e
我们可以看到我们的微服务状态是Up状态
除了上面我们介绍的ICMP, SOAP, REST方法外,我们其实也可以通过TCP协议来监测运行的状态。比如我们可以这样定义:
tcp.yml
- type: tcp
name: elasticsearch-checker
schedule: '@every 5s'
hosts: ["localhost:9200"]
ipv4: true
ipv6: true
mode: any
fields:
env: dev
其实这个和我们刚开始介绍那个运用http协议来监测Elasticsearch运行的情况相似。
参考:
【1】https://www.elastic.co/webinars/elastic-uptime-monitoring-actively-monitor-the-availability-of-your-systems-and-services
【2】https://www.elastic.co/blog/elastic-uptime-monitoring-solution-released
【3】https://www.elastic.co/blog/uptime-monitoring-with-heartbeat-and-the-elastic-stack
标签:启动 RoCE ttl ulimit number 收集器 reference path 服务器
原文地址:https://www.cnblogs.com/sanduzxcvbnm/p/12076638.html