码迷,mamicode.com
首页 > 其他好文 > 详细

keepalive简单入门

时间:2017-01-29 23:16:00      阅读:2794      评论:0      收藏:0      [点我收藏+]

标签:高可用   keepalived   双主模型   

解决了任务分发问题,那么我们可以考虑下一个问题了,机器故障怎么办。首先考虑realsserver故障,我们怎么实时发现rs(realserver)的状态,当检测rs到故障后调度器怎么修改调度规则。然后是考虑dr(director)故障,这就是大问题了一旦故障整个后端服务就全部不可用了,这里我称这种节点为单点。原本的设计由于故障导致漏洞百出,有人就引入了一个软件keepalived,帮助lvs解决了单点问题,同时还提供了后端rs故障发现和处理机制。

# 目录

高可用

keepalived

双主模型的实践

多端口统一调度



# 高可用

这里dr一直可以就成为高可用,仔细的考虑dr的特点,一是负责调度规则管理,二对外网提供访问接口,这个访问接口一般是一个ip。

这里引入一个概念,也是一个常识,服务可用率A=MTBF/(MTBF+MTTR)

MTBF #平均无故障时间,也就是服务器正常提供服务的时间

MTTR #平均故障时间,服务器处于故障和维护的时间


提高A的方法有两种一种是在保证MTTP不变的情况下增大MBTF,这种方法常常是硬件级的提高方法,我们可以使用更贵的服务器,并且服务器每个硬件都有一个冗余处于热备。这种方法需要硬件设计商介入,那么就意味着成本会非常高,因为真正正在使用调度器数量很少,不能通过量产来平摊设计费用,那么只能承担硬件设计的高费用。这一种方法显然不太靠谱。


还有就是减MTTR,这种方法首先我们要承认一个前提——我们允许机器故障,减小故障和维护时间那么就有一个方案,就是准备一个和正在运行dr服务器一样的服务器,时时等着dr挂掉立即顶替。既然是顶替那么就会有问题,怎么判断dr挂掉了,让dr实时向备用服务器发送心跳信息,备用服务器一旦收不到心跳信息,立即顶替。


备用dr服务器(backup)怎么顶替dr(master),顶替dr意味着备用服务器要提供dr的全部功能,并且要继承dr的提供的外网访问接口。dr的功能好提供,只要backup服务器运行和master一样服务提供同样的配置文件就可以了。下一项怎么继承dr的外网访问接口,这里我们使用vrrp(虚拟路由协议)


vrrp,是多个硬件使用一个ip信息,其实同时只有一个设备可以使用ip。这个协议的功能就是让ip一直可用,一次工作流程。正常情况master硬件占有ip,并且不停向backup设备发送心跳信息,当master故障backup收不到心跳信息,backup就会发送arp报文问ip的mac地址是多少,然后自己回答ip的mac是自己的mac,这样路由就会收到arp信息更新路由表。这样就把ip抢过来了。




# keepalived

keepalived可以说是为lvs量身定制的高可用软件,之所以这样说是因为它主要有两个核心模块构成如下图


技术分享


其中vrrp Stack主要是为了实现vrrp功能;Checkers是为了实现监控后端服务器状态的的模块,当后端服务器故障可以实时更改lvs规则,不再向故障的后端服务器调度请求。



### keepalived配置文件的结构

GLOBAL CONFIGURATION

Global definitions

Static routes/addresses

VRRPD CONFIGURATION

VRRP synchronization group(s) #vrrp同步组;

VRRP instance(s) #每个vrrp instance即一个vrrp路由器;

LVS CONFIGURATION

Virtual server group(s)

Virtual server(s) #ipvs集群的vs和rs;



### 配置虚拟路由器:

vrrp_instance <STRING> {

....

}

state MASTER|BACKUP:当前节点在此虚拟路由器上的初始状态;只能有一个是MASTER,余下的都应该为BACKUP;

interface IFACE_NAME:绑定为当前虚拟路由器使用的物理接口;

virtual_router_id VRID:当前虚拟路由器的惟一标识,范围是0-255;

priority 100:当前主机在此虚拟路径器中的优先级;范围1-254;

advert_int 1:vrrp通告的时间间隔;

authentication {

auth_type AH|PASS

auth_pass <PASSWORD>

}



### 虚拟服务器:

virtual_server IP port |

virtual_server fwmark int 

{

...

real_server {

...

}

...

}


常用参数:

delay_loop <INT>:服务轮询的时间间隔;

lb_algo rr|wrr|lc|wlc|lblc|sh|dh:定义调度方法;

lb_kind NAT|DR|TUN:集群的类型;

persistence_timeout <INT>:持久连接时长;

protocol TCP:服务协议,仅支持TCP;

sorry_server <IPADDR> <PORT>:备用服务器地址;

real_server <IPADDR> <PORT>

{

weight <INT>

notify_up <STRING>|<QUOTED-STRING>

notify_down <STRING>|<QUOTED-STRING>

HTTP_GET|SSL_GET|TCP_CHECK|SMTP_CHECK|MISC_CHECK { ... }:定义当前主机的健康状态检测方法;

}

HTTP_GET|SSL_GET:应用层检测

HTTP_GET|SSL_GET {

url {

path <URL_PATH>:定义要监控的URL;

status_code <INT>:判断上述检测机制为健康状态的响应码;

digest <STRING>:判断上述检测机制为健康状态的响应的内容的校验码;

}

nb_get_retry <INT>:重试次数;

delay_before_retry <INT>:重试之前的延迟时长;

connect_ip <IP ADDRESS>:向当前RS的哪个IP地址发起健康状态检测请求

connect_port <PORT>:向当前RS的哪个PORT发起健康状态检测请求

bindto <IP ADDRESS>:发出健康状态检测请求时使用的源地址;

bind_port <PORT>:发出健康状态检测请求时使用的源端口;

connect_timeout <INTEGER>:连接请求的超时时长;

}


TCP_CHECK {

connect_ip <IP ADDRESS>:向当前RS的哪个IP地址发起健康状态检测请求

connect_port <PORT>:向当前RS的哪个PORT发起健康状态检测请求

bindto <IP ADDRESS>:发出健康状态检测请求时使用的源地址;

bind_port <PORT>:发出健康状态检测请求时使用的源端口;

connect_timeout <INTEGER>:连接请求的超时时长;

}


# 双主模型的实践

技术分享


这里我使用lvs的dr模型


### dr1和dr2的设置命令

两台主机keepalived的配置只有很少的一点不同,不同的时候我会标出,这里以dr1的为例

yum -y install keepalived httpd ipvsadm #安装keepalived、httpd和ipvsadm,ipvsadm非必须的,是为了方便我们查看lvs的规则
vim keepalived.conf
! Configuration File for keepalived
global_defs { #全局配置
   notification_email {
        root@localhost
   }
   notification_email_from keepalived@localhost
   smtp_server 127.0.0.1
   smtp_connect_timeout 30
   router_id node1
   vrrp_mcast_group4 224.0.29.29
}
vrrp_instance VI_1 { #第一个虚拟网络配置
    #dr2的配置,state BACKUP 
    state MASTER
    interface eno16777736
    virtual_router_id 51
    #dr2的配置,priority 90
    priority 100 
    authentication {
        auth_type PASS
        auth_pass oldking1
    }
    virtual_ipaddress {
        172.16.29.3/16 dev eno16777736 label eno16777736:0
    }
}
#第二个虚拟网络的配置
vrrp_instance VI_2 { 
#dr2的配置,state MASTER
    state BACKUP 
    interface eno16777736
    virtual_router_id 52
    #dr2的配置,priority 100
    priority 90 
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass oldking2
    }
    virtual_ipaddress {
        172.16.29.4/16 dev eno16777736 label eno16777736:1
    }
}
virtual_server 172.16.29.3 80 { #第一个虚拟网络对应的服务配置
    delay_loop 6
    lb_algo rr
    lb_kind DR
    nat_mask 255.255.0.0
    protocol TCP
    sorry_server 127.0.0.1 80
    real_server 172.16.29.1 80 {
        weight 1
        HTTP_GET {
            url {
              path /
              status_code 200
            }
            connect_timeout 1
            nb_get_retry 1
            delay_before_retry 1
        }
    }
    real_server 172.16.29.2 80 {
        weight 1
        HTTP_GET {
            url {
              path /
              status_code 200
            }
            connect_timeout 1
            nb_get_retry 1
            delay_before_retry 1
        }
    }
}
virtual_server 172.16.29.4 80 { #第二个虚拟网络对应的服务配置
    delay_loop 6
    lb_algo rr
    lb_kind DR
    nat_mask 255.255.0.0
    protocol TCP
    sorry_server 127.0.0.1 80
    real_server 172.16.29.1 80 {
        weight 1
        HTTP_GET {
            url {
              path /
              status_code 200
            }
            connect_timeout 1
            nb_get_retry 1
            delay_before_retry 1
        }
    }
    real_server 172.16.29.2 80 {
        weight 1
        HTTP_GET {
            url {
              path /
              status_code 200
            }
            connect_timeout 1
            nb_get_retry 1
            delay_before_retry 1
        }
    }
}
echo ‘<h1>dr1</h1>‘ > /var/www/html/index.html #提供网页文件,rs2的话,执行echo ‘<h1>dr2</h1>‘ > /var/www/html/index.html
systemctl start keepalived.service
systemctl start httpd.service



### rs1和rs2服务器的配置

yum install httpd -y
vim setrs.sh #一键配置dr脚步
#!/bin/bash
#
vip=172.16.29.3
vip1=172.16.29.4
mask=‘255.255.255.255‘
case $1 in
start)
    echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
    echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore
    echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
    echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce
    ifconfig lo:0 $vip netmask $mask broadcast $vip up
    route add -host $vip dev lo:0
    ifconfig lo:1 $vip1 netmask $mask broadcast $vip1 up
    route add -host $vip1 dev lo:1
    ;;  
stop)
    ifconfig lo:0 down
    ifconfig lo:1 down
    echo 0 > /proc/sys/net/ipv4/conf/all/arp_ignore
    echo 0 > /proc/sys/net/ipv4/conf/lo/arp_ignore
    echo 0 > /proc/sys/net/ipv4/conf/all/arp_announce
    echo 0 > /proc/sys/net/ipv4/conf/lo/arp_announce
    ;;  
*)
    echo "Usage $(basename $0) start|stop"
    exit 1
    ;;
esac
bash -x setrs.sh
echo ‘<h1>rs1</h1>‘ > /var/www/html/index.html #提供网页文件,rs2的话,执行echo ‘<h1>rs2</h1>‘ > /var/www/html/index.html
systemctl start httpd.service



# 多端口统一调度

首先使用iptables给某几个端口的服务打上同一个标签,大标签的命令

iptables -t mangle -A PREROUTING -i eth2 -p tcp --dport 80 -j MARK --set-mark 20
iptables -t mangle -A PREROUTING -i eth2 -p tcp --dport 443 -j MARK --set-mark 20

然后再编辑keepalived配置文件

#这里不使用ip加port直接使用如下配置
virtual_server fwmark 20 {
...
}




# nginx的双主模型

架构图和lvs双主模型的一模一样,只是把代理服务器更替为nginx

yum install nginx keepalived
vim /etc/nginx/nginx.conf
#在全局配置段添加如下内容
    upstream web {
        server 172.16.29.1:80;
        server 172.16.29.2:80;
    } 
    #在server段更改location的配置如下
        location / { 
    proxy_pass http://web;
    }
vim /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
   notification_email {
        root@localhost
   }
   notification_email_from keepalived@localhost
   smtp_server 127.0.0.1
   smtp_connect_timeout 30
   router_id node1
   vrrp_mcast_group4 224.0.29.29
#这个脚本是为了维护后端服务器时使用的
    vrrp_script chk_down {
        script "[[ -f /etc/nginx/down ]] && exit 1 || exit 0"
        interval 1
        weight  -5
    }
#这个脚本是为了检测代理服务器Nginx的状态
    vrrp_script chk_nginx {
        script "killall -0 nginx && exit 0 || exit 1"
        interval 1
        weight -20
    }
}
#第一个虚拟网络配置
vrrp_instance VI_1 { 
    #dr2的配置,state BACKUP 
    state MASTER
    interface eno16777736
    virtual_router_id 51
    #dr2的配置,priority 90
    priority 100 
    authentication {
        auth_type PASS
        auth_pass oldking1
    }
    virtual_ipaddress {
        172.16.29.3/16 dev eno16777736 label eno16777736:0
    }
}
#第二个虚拟网络的配置
vrrp_instance VI_2 { 
#dr2的配置,state MASTER
    state BACKUP 
    interface eno16777736
    virtual_router_id 52
    #dr2的配置,priority 100
    priority 90 
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass oldking2
    }
    virtual_ipaddress {
        172.16.29.4/16 dev eno16777736 label eno16777736:1
    }
}
#调用chk_down和chk_nginx的运行
    track_script {
        chk_down
        chk_nginx
    }
}


# 总结

keepalived的是很基本的服务,是我们使用最多的高可用服务,因为它足够轻量级并且可定制性很高,我们可以是keepalived调用我们定义的python脚步实现高级功能,拿高可用nginx服务为例子,备用节点的Nginx服务一直运行着,当主服务器故障,直接获取主服务器的ip,并且向缓存服务器加载session就好了。


本文出自 “老王linux旅程” 博客,请务必保留此出处http://oldking.blog.51cto.com/10402759/1894376

keepalive简单入门

标签:高可用   keepalived   双主模型   

原文地址:http://oldking.blog.51cto.com/10402759/1894376

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!