标签:linux lvs lvs-dr nat lvs-tun ipvs
一、集群cluster
当后端服务器承受不住访问的压力,提高服务器性能的解决方案会极大增加成本时,人们提出了横向扩展的解决方案。增加一台或几台服务器,提供相同的服务,通过前段分发器将访问量均匀的分配到后台服务器上。这种多台服务器组成的数组集合就叫做集群。
集群按功能划分有三种模型:
负载均衡集群(loadBalance)
高可用性集群(High Availability)
高性能集群(High Performance)
二、负载均衡集群
根据某种算法将负载压力合理的分配到集群中的每一台计算机上,以减轻主服务器的压力。
负载均衡实现的方式一般有三种:
通过DNS轮询进行负载均衡
通过反向代理进行负载均衡
通过网络地址转换(NAT)进行负载均衡
下面我要说的linux virtual server就是通过NAT技术进行负载均衡的
三、Linux Virtual Server (linux虚拟服务)
负载均衡的实现可以使用硬件如著名的F5设备,也可以使用软件如:LVS、NGINX反向代理,毕竟硬件是要花钱的,软件是开源免费的,你懂的。
lvs是国内章文嵩教授牵头开发的开源项目,现在已经被收到linux2.6以上的内核版本中,不需要对系统打补丁就可以轻松实现。lvs工作于IOS七层模型的传输层,通过对TCP、UDP、SCTP、IPsec ESP、AH这些工作在四层的协议的支持,根据目标地址和端口做出转发与否的决策,根据调度算法做出转发至哪一个端口的决策。
LVS将其控制程序ipvs嵌套至传输层数据流的Input钩子函数上,ipvs将发送至本控制器主机(director)上的数据流在input链上进行截流,通过对数据报文的分析根据自身的算法将数据流转发至后台真正提供服务的主机(Real Server)上,达到根据后端服务器负载能力均衡分配处理任务的效果。
lvs中的术语:
ClientIP:CIP------------------------客户端ip
Dirvector Virtual IP:VIP------------控制器上对外开放的ip
Dirvector IP:DIP--------------------控制器上连接后台服务器的ip
Realserver IP:RIP-------------------后台服务器的ip
Director-----------------------------控制器或调度器
Real Server--------------------------后台提供服务的主机
四、LVS的四种类型
1、lvs-nat(net adress translation)
类似于DNAT,但支持多目标转发。通过修改请求报文的目标地址为根据调度算法所挑选出的某RS的RIP来进行转发;
架构特性:
(1)RS应该使用私有地址,即RIP应该为私有地址:各RS的网关必须指向DIP;
(2)请求和响应报文都经由director转发:高负载场景中,dircetor可能成为瓶颈;
(3)支持端口映射;
(4)RS可以使用任意OS;
(5)RS的RIP必须与director的DIP在同一网络;
2、lvs-dr(direct route)
director在实现转发时不修改请求的ip首部,而是通过直接封装MAC首部完成转发:目标MAC是Dircetor根据调度算法挑选出某RS的MAC地址,此类型中,RS也有同Director一样的VIP。
架构特点:
(1)通过静态绑定或内核参数修改或arptables规则实现只有Director上的VIP响应服务请求,RS上的VIP拒绝响应服务请求;
(2)RS上的RIP可以是私有地址,也可以是公网地址;
(3)请求报文必须经过Director调度,响应报文直接由RS通过VIP返回给用户;
(4)各RIP必须与DIP在同一网络中;
(5)不支持端口映射;
(6)RS可以使用大多数的OS;
(7)RS的网关一定不能指向Director;
3、lvs-tun(Tunnel transmission)
隧道传输ipip:不修改请求报文ip首部,而是通过ip隧道机制在原有的ip报文之外在封装ip首部,经由互联网把请求报文交给选定的rs;
架构特性:
(1)RIP,DIP,VIP都是公网地址;
(2)RS的网关不能,也不可能指向DIP;
(3)请求报文由Director分发,但响应报文直接由RS响应给Client;
(4)不支持端口映射;
(5)RS的OS必须得支持IP隧道,现在只有linux系统支持,windows,bsfdb等不支持;
4、lvs-fullnat(双向转换)
通过请求报文的源地址为DIP,目标为RIP来实现转发:对于响应报文而言,修改源地址为VIP,目标地址为CIP来实现转发:
架构特点:这是一种对nat模型的改进,是一个扩展,使得RS与Director可以处于不同网络。
(1)RIP,DIP可以使用私有地址;
(2)RIP和DIP可以不再同一个网络中,且RIP的网关未必需要指向DIP;
(3)支持端口映射;
(4)RS的OS可以使用任意类型;
(5)请求报文经由Director,响应报文也经由Director;
五、LVS的十种调度算法
四种静态算法,不考虑后端服务器实际负载情况:
1、RR
根据规则依次论调,不考虑RS的性能。轮到谁就转发给谁。
2、WRR
加权轮询,加入了weight(权重),可以根据RS的性能为其设置权重值,权重越大功能越强,但是不能发硬当前的服务器的运行的情况。
3、DH
目标地址hash,适用于前段是一个drector后端是几个缓存服务器,当客户端第一次访问到的是RS1的时候,DH这种算法保证,在客户端刷新后还是访问的是RS1。
4、SH
源地址hash,用于保证响应的报文和请求的报文是同一个路径。
六种动态算法,考虑后端服务器当前负载后再进行分配:
1、LC
least connection,当一个用户请求过来的时候,就计算下哪台RS的链接谁最小,那么这台RS就获得了下次响应客户端请求的机会,计算的方法Overhead=active*256+inactive,如果两者的结果是相同的则从LVS中的规则依次往下选择RS。这种算法也是不考虑服务器的性能的。
2、WLC
这个就是加了权重的LC,考虑了RS的性能,即是性能好的就给的权重值大一些,不好的给的权重值小一些。缺点就是如果Overhead相同,则会按规则表中的顺序,由上而下选择RS,Overhead=(active*256+inactive)/weight
3、SED
就是对WLC的情况的补充,Overhead=(active+1)*256/weight,加一,就是为了让其能够比较出大小。
4、NQ
never queue 基本和SED相同,避免了SED当中的性能差的服务器长时间被空闲的弊端,它是第一个请求给性能好的服务器,第二个请求一定是给的空闲服务器不论它的性能的好与坏。以后还是会把请求给性能好的服务器
5、LBLC
它就是动态DH和LC的组合,适用于cache群,对于从来没有来过的那些新的请求会分给当前连接数较少的那台服务器。
6、LBLCR
带有复制功能的LBLC,它的适用场景这里举例说明一下,比如说现在又RS1和RS2,第一次访问RS1的5个请求第二次又来了,理所应到Director将会将其交给RS1,而此时在RS2是非常闲的,所以此时最好的处理方法就是可以将后来的这5个请求分别交给RS1和RS2,所以此时就需要把客户端第一次请求的资源复制下来。(特殊情况)
六、ipvsadm使用说明
1、编译安装或yum源安装
下载:http://www.linuxvirtualserver.org/software/
注意对应自己的内核版本
ipvsadm-1.24.tar.gz tar zxvf ipvsadm-1.24.tar.gz cd ipvsadm-1.24 make make install
2、添加一个集群服务director
ipvsadm -A|E -t|u|f service-address [-s scheduler]
-A:添加
-E:修改
-t:tcp
-u:udp
-f:打防火墙标记的tcp或udp
-D:删除
-s:指定调度算法
3、给一个集群服务添加一条RS规则
ipvsadm -a|e -t|u|f service-address -r server-adddress [-g|-i|-m] [-w wegiht]
-a:添加
-e:修改
-d:删除
-g:dr模式直接路由gatway
-i:ipip,tun隧道
-m:NAT模式,地址转换
# ipvsadm -D -t 172.16.13.10:80 # ipvsadm -d -t 172.16.13.10:80 -r 192.168.13.13:8080 # ipvsadm -C //清空所有群集服务的定义
4、 查看规则:
ipvsadm -L -n -c --stats
-c:列出当前所有的connection
--stats:列出统计数据
--rate:速率数据
5、保存规则:default save to /etc/sysconfig/ipvsadm
# service ipvsadm save # ipvsadm -S >/path/to/file # ipvsadm-save >/path/to/file
6、重载规则:
# service ipvsadm restart # ipvsadm -R < /path/from/file # ipvsadm-restore < /path/from/file
7、清空所有已匹配的计数器
ipvsadm -Z [-t|u|f service-address]
七、LVS-NAT示例
虚拟网络类型为仅主机模式host-only
Client :172.16.13.21 Director VIP:172.16.13.10 DIP:192.168.13.10 WebServer1:192.168.13.13 WebServer2:192.168.13.14
Director配置:
# yum install ipvsadm -y # echo 1 > /proc/sys/net/ipv4/ip_forward # ipvsadm -A -t 172.16.13.10:80 -s wrr # ipvsadm -a -t 172.16.13.10:80 -r 192.168.13.13:80 -m -w 1 # ipvsadm -a -t 172.16.13.10:80 -r 192.168.13.14:80 -m -w 2
Webserver配置:
安装nginx当作web服务器,web1主页写上192.168.13.13;web2主页写上192.168.13.14;
将WebServer网关指定为192.168.13.10
Client测试:
浏览器输入http://172.16.13.10/index.html
# curl http://172.16.13.10 # tcpdump -i eth0 host 172.16.13.10 and tcp port 80 \\抓包工具在Director上使用
八、LVS-DR示例
未完待续
本文出自 “铜锣湾” 博客,请务必保留此出处http://wuhf2015.blog.51cto.com/8213008/1654648
标签:linux lvs lvs-dr nat lvs-tun ipvs
原文地址:http://wuhf2015.blog.51cto.com/8213008/1654648