标签:动态 官方 lte 节点 基础 环境 round 伸缩性 模式
1)主要特点
2)典型的集群架构图
Logstash是一款轻量级的、开源的日志收集处理框架,它可以方便的把分散的、多样化的日志收集起来,并进行自定义过滤分析处理,然后传输到指定的位置(某服务器或者文件)。Logstash采用JRuby语言编写。
1)Logstash的特点
2)Logstash的内部运行逻辑图
Redis服务器是logstash官方推荐的broker,这个broker起数据缓存的作用,通过这个缓存器可以提高Logstash Shipper发送日志到Logstash indexer的速度,同时避免了由于突然断电导致的数据丢失。可以实现broker功能的软件还有许多,如kafka等。
在实际应用中LogStash自身并没有什么角色,只是根据不同的功能、不同的配置给出不同的称呼而已,无论是Shipper还是Indexer,始终只做前面说的三件事。
Kibana是一个开源的数据分析可视化平台。
使用Kibana可以为Logstash和Elasticsearch提供的日志数据进行高效搜索、可视化总和多维度分析,还可以与Elasticsearch搜索引擎中的数据进行交互。
它基于浏览器的界面操作可以快速创建动态仪表板,实时监控Elasticsearch的数据状态与更新。
1)工作流程
2)工作图示
有些时候,如果搜集的日志量较大,为了保证日志搜集的性能和数据的完整性,Logstash shipper和logstash indexer之间的缓冲器(Broker)也经常用kafka来实现。
1)分布式协调技术
分布式协调技术主要是用来解决分布式环境当中多个进程之间的同步控制,让它们有序的去访问某种共享资源,防止造成资源竞争(脑裂)。
2)分布式系统
分布式系统就是在不同地域分布的多个服务器,共同组成一个应用系统来提供服务。
在分布式系统中最重要的是进程的调度,需要一个协调器,来让它们有序的来访问这个资源;这个协调器就是分布式系统中的“锁”。分布式环境下的锁叫做分布式锁;分布式锁就是分布式协调技术实现的核心内容。
某个进程在使用资源时,会先去获得这把锁,该进程获得锁以后会对资源保持独占,此时其它进程就无法访问该资源。这个进程用完该资源后会将该锁释放掉,以便让其他教程来获得锁。这样就可以保证分布式系统中多个进程能够有序的访问该共享资源。
3)ZooKeeper
ZooKeeper就是一种为分布式应用所设计的高可用、高性能的开源协调服务。
它提供了一套分布式锁服务,同时也提供了数据的维护和管理机制,如:同一命名服务、状态同步服务、集群管理、分布式消息队列、分布式应用配置项的管理等。
1)单点故障
在分布式锁服务中,最典型的应用场景就是通过对集群进行Master角色的选举,来解决分布式系统中单点故障问题。
单点故障就是在一个主从的的分布式系统中,主节点负责任务调度,从节点负责任务的处理,而当主节点发生故障时,整个应用系统也就瘫痪了,这种故障件求称之为单点故障
2)传统方式解决单点故障
采用一个备用节点定期向主节点发送ping包,主节点收到ping包以后向备用节点发送回复Ack信息,当备节点收到回复的时候就会任务当前主节点运行正常,让它继续提供服务;当主节点故障时,没用节点就无法收到回复信息了,此时,备用节点就认为主节点宕机,然后接替它成为新的主节点继续提供服务。
3)传统方式解决单点故障的缺陷
当主节点并没有出现故障,只是在向从节点回复Ack响应的时候网络发生了故障,这样备用节点就无法收到回复,那么他就会认为主节点出现了故障, 然后备用节点将会接管主节点的服务并成为新的主节点。此时,分布式系统中就出现了两个主节点(双Master节点)的情况(脑裂),双Master节点的出现,会导致分布式系统的服务发生混乱。这样这个分布式系统将不可用。
为了解决传统方式决绝单点故障的缺陷,就引入了ZooKeeper来解决这种问题。
1)Master启动
分布式系统中引入ZooKeeper之后,就可以配置多个主节点,以配置两个节点为例,Master A和Master B都启动后,它们都会向ZooKeeper中注册节点信息。
假设Master A锁注册的节点信息是master00001,Master B注册的节点信息是master00002,注册完成之后会进行选举,选举有多种算法。以编号最小作为选举算法为例,编号最小的节点将在选举中获胜并获得锁成为主节点,也就是Master A将会获得锁并成为主节点,然后Master B将被阻塞成为一个备用节点。那么通过这种方式ZooKeeper就完成了对两个Master进程的调度,完成了主、备节点的分配和协作。
2)Master故障
如果Master A发生了故障,这时它在ZooKeeper所注册的节点信息会被自动删除,而ZooKeeper会自动感知节点的变化,发现Master A故障后,会再次发出选举,这时Master B将在选举中获胜,替代Master A成为新的主节点,这样就完成了主、被节点的重新选举。
3)Master恢复
如果主节点恢复了,它会再次向ZooKeeper注册自身的节点信息,但是这时它注册的节点信息将会变成master00003,而不是原来的信息。ZooKeeper会感知节点的变化再次发动选举,这时Master B会在选举中再次获胜继续担任主节点,Master A会担任备用节点。
ZooKeeper就是通过这样的协调、调度机制如此反复的对集群进行管理和状态同步的。
1)ZooKeeper集群图示
ZooKeeper一般是通过集群架构来提供服务的
2)ZooKeeper的角色
ZooKeeper集群主要角色有Server和Client,其中Server又分为Leader、Follower、Observer三个角色
3)ZooKeeper数据存储机制
ZooKeeper集群中每个Server在内存中存储了一份数据,在ZooKeeper启动时,将从实例中选举一个Server作为Leader,Leader负责处理数据更新等操作,当大多数Server在内存中成功修改数据,才认为数据修改成功。
4)ZooKeeper写的流程
客户端Client首先和一个Server或者Observer通信,发起写请求,然后Server将写请求转发给Leader,Leader再将写请求转发给其他Server,其他Server在接收到写请求后写入数据并响应Leader,Leader在接收到大多数写成功回应后,认为数据写成功,最后响应Client,完成一次写操作过程。
Kafka是一种高吞吐量的分布式发布/订阅消息系统。
kafka是Apache旗下的一个开源系统,它可以实时处理大量数据以满足各种需求场景:如基于hadoop平台的数据分析、低时延的实时系统、storm/spark流式处理引擎等。
Broker:Kafka集群包含一个或多个服务器,每个服务器被称为broker。
Topic:每条发布到Kafka集群的消息都有一个分类,这个类别被称为Topic(主题)。
Producer:指消息的生产者,负责发布消息到Kafka broker。
Consumer:指消息的消费者,从Kafka broker拉取数据,并消费这些已发布的消息。
Partition:Partition是物理上的概念,每个Topic包含一个或多个Partition,每个partition都是一个有序的队列;partition中的每条消息都会被分配一个有序的id(称为offset)。
Consumer Group:消费者组,可以给每个Consumer指定消费者组,若不指定消费者组,则属于默认的group。
Message:消息,通信的基本单位,每个producer可以向一个topic发布一些消息。
典型的Kafka集群包含若干Producer,若干broker,若干Consumer Group,以及一个Zookeeper集群。
Kafka通过ZooKeeper管理集群配置,选举leader,以及在Consumer Group发生变化时进行rebalance。
Produce使用push模式将消息发布到broker,Consumer使用pull模式从broker订阅并消费消息。
Kafka中的topic是以partition的形式存放的,每个topic都可以设置它的partition数量
Partition的数量决定了组成topic的log的数量,推荐partition的数量大于同时运行的consumer的数量,这样消息数据就可以均匀的分布在各个broker中。
Topic设置多个Partition的缘由:
应该kafka是基于文件存储的,通过配置多个partition可以将消息内容分散存储到多个broker上,这样可以避免文件尺寸达到单机磁盘的上限。
同时,将topic切分成任意多个partitions,可以保证消息存储、消息消费的效率,因为越多的partitions可以容纳更多的consumer,可以有效的提升kafka的吞吐率。
所以,将Topic切分成多个partitions的好处是可以将大量的消息分成多批数据同时写到不同节点上,将写请求负担负载到各个集群节点。
每当用户往某个Topic发送数据时,数据会被hash到不同的partition,这些partition位于不同的集群节点,所以每个消息都会被记录一个offset消息号,就是offset号。消费者通过offset号去查询读取这个消息。
发送消息的流程:
首先获取topic的所有partition,如果客户端不指定Partition,也没有指定Key的话,使用自增长的数字取余数的方式实现指定的Partition。这样Kafka将平均的向Partition中生产数据。如果想要控制发送的partition,有两种方式:1. 指定partition,2.根据Key自己写算法,实现其partition方法。
每一条消息被发送到broker时,会根据partition规则选择被存储到哪一个partition。如果partition规则设置的合理,所有消息可以均匀分布到不同的partition里,这样就实现了水平扩展。同时,每条消息被append到partition中时,是顺序写入磁盘的,因此效率非常高。
顺序写磁盘效率比随机写内存要更高,这是Kafka高吞吐量的一个很重要的保证。
4.1 filebeat简介
4.2 filebeat架构运行原理
5.1 简单的ELK架构
5.2 典型ELK架构
5.3 ELK集群架构
标签:动态 官方 lte 节点 基础 环境 round 伸缩性 模式
原文地址:https://www.cnblogs.com/hgzero/p/13419081.html