码迷,mamicode.com
首页 > 其他好文 > 详细

LVS负载集群详解

时间:2018-02-05 16:05:03      阅读:270      评论:0      收藏:0      [点我收藏+]

标签:负载均衡集群   命令行   提高   查看   port   网络服务   lb01   内存   nbsp   


第1章 LVS负载均衡

1.1 负载均衡介绍

1.1.1 负载均衡简介

负载均衡(Load Balance)集群提供了一种廉价、有效、透明的方法,来扩展网络设备和服务器的负载、带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。

2  单台计算机无法承受大规模的并发访问或数据流量。此时需要搭建负载均衡集群把流量分摊到多台节点设备上分别处理,既减少用户等待响应的时间又提升了用户体验;

2  7*24小时的服务保证,任意一个或多个有限后端节点设备宕机,不能影响整个业务运行。

1.1.2 为什么学LVS

2  工作在网络模型的7层,可以针对http应用做一些分流的策略,比如针对域名、目录结构。Nginx单凭这点可利用的场合就远多于LVS

2  最新版本的nginx也支持4TCP负载。曾经这是LVSnginx好的地方。

2  nginx对网络稳定性的依赖非常小,理论上能ping通就能进行负载功能,这个也是它的优势之一,相反LVS对网络稳定依赖性比较大。

2  nginx安装和配置比较简单测试起来比较方便,它的基本能把错误用日志打印出来。LVS的配置、测试就要花比较长时间了,LVS对网络依赖比较大。

 

总结:当并发超过nginx上限,就可以使用LVS了。日1000-2000W pv或并发请求1万以下都可以考虑用nginx。大型门户网站,电商网站需要用到LVS

1.2 LVS介绍

1.2.1 LVS简介

LVSLinux Virtual Server的简写。即Linux虚拟服务器,是一个虚拟的服务器集群系统,可以在UNIX/LINUX平台下实现负载均衡集群功能,该项目在19985月由章文嵩博士组织成立是中国国内最早出现的自由软件之一。

官网:http://www.linuxvirtualserver.org/index.html
中文资料
LVS项目介绍           http://www.linuxvirtualserver.org/zh/lvs1.html
LVS集群的体系结构     http://www.linuxvirtualserver.org/zh/lvs2.html
LVS集群中的IP负载均衡技术  http://www.linuxvirtualserver.org/zh/lvs3.html
LVS集群的负载调度      http://www.linuxvirtualserver.org/zh/lvs4.html

1.2.2 LVS内核模块ip_vs介绍

技术分享图片

2  早在2.2内核时,IPVS就已经以内核补丁的形式出现。

2  2.4.23版本开始,IPVS软件就合并到Linux内核的常用版本的内核补丁集合。

2  2.4.24以后IPVS已经成为Linux官方标准内核的一部分。

2  LVS无需安装系统自带

2  安装的是管理工具,第一种ipvsadm,第二种是keepalived

2  ipvsadm通过命令行管理,keepalive读取配置文件管理

1.2.3 LVS 专业术语:

2  VIP :虚拟ip地址  virtural ip address  用于给客户端计算机提供服务的ip地址

2  RIPreal ip,集群下面节点使用的ip地址,物理ip地址

2  DIPdirector ip 用于连接内外网络的ip,物理网卡上的ip地址,他是负载均衡器上的ip

2  CIPclient ip 客户端用户计算机请求集群服务器的ip地址,该地址用作发送给集群的请求的源ip地址

1.2.4 IPVS调度器负载调度算法:LVS调度算法

1.      10种调度算法

2  固定调度算法:rr,wrr,dh,sh

2  动态调度算法:wlc,lc,lblc,lblcr,SED,NQ.

2.      最常用的三种RR WRR WLC

2  rr :轮询调度,他将请求依次分配不同的RS节点,RS服务器均摊请求,这种算法比较简单,但是只适合RS节点相差性能不大的情况

2  wrr:加权轮询调度,它将依据不同RS节点的权值分配任务,权值高的RS将优先获得任务,并且分配的连接数比权值低的RS节点更多。相同权值的RS得到相同数目的连接数

2  dh:destination hashing 以目的地址为关键字查找一个静态hash表来获取需要的RS

2  sh:source hashing 以源地址为关键字查找一个静态hash表来获取需要的RS

动态调度算法

wlc:加权最小连接数调度(weighted least-connection)假设各台RS的权值依次为Wi(i=1...n) 。当前的tcp连接数依次为Ti(i=1..n),依次取TI/WI为最小的RS作为下一个分配的RS

LC

LBLC

LBLCR

SED

NQ    都不常用

一般的网络服务http mail mysql 常用的调度算法是rr,wrr wlc

1.3 LVS集群搭建

1.3.1 LVS 环境准备

1.准备4台安装好CentOS7.2系统的虚拟机,内存512M。
2.所有虚拟机的防火墙和Selinux关闭
3.主机名及IP地址关系如下:
lb01    10.0.0.5
lb02    10.0.0.6
web01   10.0.0.8
web02   10.0.0.7
4.web01和web02只需要安装Nginx软件,并满足下面条件:
curl http://10.0.0.8/www/
得到结果为web01
curl http://10.0.0.7/www/
得到结果为web02
5.安装好wireshark 2.2.2版本  2.2.x版本以上即可
[root@web02 ~]# getenforce
Disabled
[root@web02 ~]# systemctl is-enabled firewalld.service
disabled
[root@web02 ~]#注意:永久关闭


1.3.2 配置LVS负载均衡服务

1.      安装ipvsadm管理工具
yum -y install ipvsadm 激活 [root@lb01 ~]# ipvsadm
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
[root@lb01 ~]# lsmod|grep ip_vs
ip_vs                 140944  0
nf_conntrack          105745  1 ip_vs
libcrc32c              12644  2 xfs,ip_vs
[root@lb01 ~]#
2.      服务端配置
配置LVS负载均衡服务(只在lb01操作)
步骤1:在eth0网卡绑定VIP地址(ip)
步骤2:清除当前所有LVS规则(-C)
步骤3:设置tcp、tcpfin、udp链接超时时间(--set)
步骤4:添加虚拟服务(-A),调度算法见man ipvsadm
步骤5:将虚拟服务关联到真实服务上(-a)
步骤6:查看配置结果(-ln)
[root@lb01 ~]# ip addr add 10.0.0.3/24 dev eth0
[root@lb01 ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
[root@lb01 ~]# ipvsadm -C  
[root@lb01 ~]# ipvsadm --set 30 5 60   
[root@lb01 ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
[root@lb01 ~]# ipvsadm -A -t 10.0.0.3:80 -s wrr -p 20 
[root@lb01 ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  10.0.0.3:80 wrr persistent 20
[root@lb01 ~]# ipvsadm -a -t 10.0.0.3:80 -r 10.0.0.7:80 -g -w 1
[root@lb01 ~]# ipvsadm -a -t 10.0.0.3:80 -r 10.0.0.8:80 -g -w 1
[root@lb01 ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  10.0.0.3:80 wrr persistent 20
  -> 10.0.0.7:80                  Route   1      0          0        
  -> 10.0.0.8:80                  Route   1      0          0        
[root@lb01 ~]#

1.3.3 web服务器配置

步骤1:在lo网卡绑定VIP地址(ip)
步骤2:修改内核参数抑制ARP响应
两台web服务器都需要操作,完成后不能再lb01测试,使用浏览器测试即可
[root@web01 ~]# ip addr add 10.0.0.3/32 dev lo
[root@web01 ~]# cat >>/etc/sysctl.conf<<EOF
> net.ipv4.conf.all.arp_ignore = 1
> net.ipv4.conf.all.arp_announce = 2
> net.ipv4.conf.lo.arp_ignore = 1
> net.ipv4.conf.lo.arp_announce = 2
> EOF
[root@web01 ~]# sysctl -p
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
[root@web01 ~]#

技术分享图片

1.3.4 问题

问题1:浏览器访问没有发现轮询效果?

使用多个客户端测试,LVS轮询有时间限制,设置30秒的轮询时间,在30秒内不会轮询。

问题2:使用抓包工具,发现进行通信的是Windowsiplb0180端口但是lb01没有80端口?

技术分享图片

技术分享图片

技术分享图片

技术分享图片


因为系统知道LVS里面有80端口,如果没有配置LVS那么就访问不了。
结论1:从客户端发送http请求数据包的IP地址为WindowsIP地址,MAC地址也是windows的MAC。
结论2:从lb01响应的数据包:IP是1b01的VIP发送到客户端,但是mac地址可能是两个web的mac'地址发送给客户端。

问题3:客户端的操作有什么含义?

技术分享图片

1.      realserver为什么要在lo接口上配置VIP

既然要让RS能够处理目标地址为VIPIP包,首先必须要让RS能够接收到这个数据包。在lo上配置vip能够完成接收包并将结果返回给client

2.      eth0网卡配置VIP可以吗?.

不可以,将VIP设置在eth0网卡上,会影响RSarp请求,造成整体LVS集群arp缓存表絮乱,以至于整个负载均衡集群不能正常工作。

 

1.4 LVS集群工作模式--DR直接路由模式

1.4.1 工作原理

2  DR模式是通过改写请求报文的目标MAC地址,将请求发给真是服务器,而真是服务器将响应后的处理结果直接返回给客户端用户。

2  DR技术可极大的提高集群系统的伸缩性。但要求调度器LB与真实服务器RS都有一块物理网卡连在同一物理网段上。即必须在同一局域网环境。

技术分享图片

关键:
1,绑定vip到lo,避免了ip冲突问题,解决了Real server 无法识别client的报文问题

2,绑定vip会主动响应arp广播,因此要抑制arp,告诉real server 不要抢lvs的arp包,只接收包

 

虚拟IP地址由真实服务器和负载平衡器共享。负载均衡器也有一个配置了虚拟IP地址的接口,用于接收请求数据包,并将数据包直接路由到选定的服务器。所有真实服务器的非ARP别名接口配置了虚拟IP地址,或者将去往虚拟IP地址的数据包重定向到本地套接字,以便真实服务器可以在本地处理这些数据包。负载均衡器和真实服务器必须有一个通过HUB /交换机物理连接的接口

当用户访问服务器集群提供的虚拟服务时,到达虚拟IP地址(虚拟服务器的IP地址)的数据包。负载均衡器(LinuxDirector)检查数据包的目标地址和端口。如果它们与虚拟服务相匹配,则通过调度算法从集群中选择真实的服务器,并将该连接添加到记录连接的哈希表中。然后,负载均衡器直接将其转发到选定的服务器。当传入的数据包属于这个连接,并且可以在散列表中找到所选的服务器时,数据包将再次被直接路由到服务器。当服务器收到转发的数据包时,服务器发现数据包是用于别名接口或本地套接字的地址,所以它处理请求并最终直接返回给用户。连接终止或超时后,连接记录将从哈希表中删除。

负载均衡器只是将数据帧的MAC地址更改为所选服务器的MAC地址,并将其重新发送到LAN上。这就是负载均衡器和每台服务器之间必须通过一个不间断的局域网直接相连的原因

1.4.2 DR模式的总结

1,通过在调度器LB上修改数据包的目的mac地址实现转发,注意 ,源ip仍然是cip,目的ip地址仍然是VIP

2,请求的报文经过调度器而RS响应处理后的报文无需经过调度器LB,直接返回给客户端因此,并发访问量大时候效率很高

3,因DR模式是通过MAC地址的改写机制实现的转发,因此所有RS节点和调度器LB只能在一个局域网LAN中(小缺点)

4,需要注意RS节点的vip的绑定(lo:vip.lol:vip)和arp抑制问题

5,强调:RS节点的默认网关不需要调度器LBDIP,而直接是IDC机房分配的上级路由器的IP(这是RS带有外网ip地址的情况)

6,由于DR模式的调度器仅仅进行了目的MAC地址改写,因此,调度器LB无法改变请求报文的目的端口

7,当前调度器LB支持几乎所有的unix linux系统,但目前不支持windows,但是真实的RS可以是windows.

8.总的来说,DR模式效率很高,但是配置麻烦,因此,访问量不大的公司可以使用haproxynginx,这符合运维的原则:简单,易用,高效 PV2000W,并发1W以下使用haproxy,nginxlvs NAT模式)就好

9,直接对外的访问业务,例如web服务做RS节点,RS最好用公网ip地址(直接把请求返回给用户),如果不直接对外业务,例如mysql,存储系统,最好使用内部ip地址

1.4.3 arp相关问题

为了提高IP转换MAC的效率,系统会将解析结构保存下来,这个结果叫做ARP缓存。

2  Windows查看ARP缓存目录:arp -a

2  Linux查看ARP缓存命令 arp -n

arp缓存表优劣势:

(1)    主机有了arp缓存表,可以加快ARP的解析速度,减少局域网内广播风暴。因为arp是发广播包解析的,频繁的解析也是消耗带宽的,尤其是机器多的时候。

(2)    因为有了arp缓存表,所以有了黑客攻击服务器主机的风险,arp欺骗攻击。(例如在班里有个同学做恶作剧,伪装班主任告诉快递员错误的教室编号)

(3)    切换路由器,负载均衡器等设备时,可能会导致整个网络短时间中断网络。(因为切换路由器所有的客户端的arp缓存表没有更新完成,等更新完成网络就会恢复正常。)

1.4.4 服务器切换ARP问题

当集群中一台提供服务的lb01机器宕机后,然后VIP会转移到备lb02上,但是客户端的ARP缓存表的地址解析还是宕机的lb01mac地址,从而导致在lb02上添加VIP,也会发生客户端无法访问的情况。

解决方法:

lb01宕机,VIP地址迁移到lb02时,需要通过arping命令通告所有网络内机器更新本地的arp缓存表,从而使的客户机访问重新广播获取MAC地址。

[

root@lb01 ~]# ip addr del 10.0.0.3/24 dev eth0
[root@lnb02 ~]# ip addr add  10.0.0.3/24 dev eth0
[root@lnb02 ~]# ip addr  show eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:a9:6e:08 brd ff:ff:ff:ff:ff:ff
    inet 10.0.0.6/24 brd 10.0.0.255 scope global eth0
       valid_lft forever preferred_lft forever
    inet 10.0.0.3/24 scope global secondary eth0
       valid_lft forever preferred_lft forever
    inet6 fe80::20c:29ff:fea9:6e08/64 scope link
       valid_lft forever preferred_lft forever
[root@lnb02 ~]# arping -I eth0 -c 1 -U 10.0.0.3 #ARP广播地址解析
ARPING 10.0.0.3 from 10.0.0.3 eth0
Sent 1 probes (1 broadcast(s))
Received 0 response(s)
[root@lnb02 ~]#
Type `help' to learn how to use Xshell prompt.
[e:\~]$ arp -a
Windows查看
接口: 10.0.0.1 --- 0x6
  Internet 地址         物理地址              类型
  10.0.0.3              00-0c-29-a9-6e-08     动态       
  10.0.0.5              00-0c-29-c4-d5-09     动态       
  10.0.0.6              00-0c-29-a9-6e-08     动态       
  10.0.0.7              00-0c-29-16-b0-ab     动态       
  10.0.0.8              00-0c-29-f3-6f-6c     动态       
  10.0.0.255            ff-ff-ff-ff-ff-ff     静态

  

1.4.5 抑制RSarp后广播情况

技术分享图片

1.4.6 arp_announce

arp_announce:对网络接口上,本地IP地址的发出的,ARP回应,作出相应级别的限制: 确定不同程度的限制,宣布对来自本地源IP地址发出Arp请求的接口

2  0 - (默认) 在任意网络接口(eth0,eth1lo)上的任何本地地址

2  1 -尽量避免不在该网络接口子网段的本地地址做出arp回应. 当发起ARP请求的源IP地址是被设置应该经由路由达到此网络接口的时候很有用.此时会检查来访IP是否为所有接口上的子网段内ip之一.如果改来访IP不属于各个网络接口上的子网段内,那么将采用级别2的方式来进行处理.

2  2 - 对查询目标使用最适当的本地地址.在此模式下将忽略这个IP数据包的源地址并尝试选择与能与该地址通信的本地地址.首要是选择所有的网络接口的子网中外出访问子网中包含该目标IP地址的本地地址. 如果没有合适的地址被发现,将选择当前的发送网络接口或其他的有可能接受到该ARP回应的网络接口来进行发送.

补充:

因为路由器一般是动态学习ARP包的(一般动态配置DHCP的话),当内网的机器要发送一个到外部的ip包,那么它就会请求 路由器的Mac地址,发送一个arp请求,这个arp请求里面包括了自己的ip地址和Mac地址,而linux默认是使用ip的源ip地址作为arp里面 的源ip地址,而不是使用发送设备上面的 ,这样在lvs这样的架构下,所有发送包都是同一个VIP地址,那么arp请求就会包括VIP地址和设备 Mac,而路由器收到这个arp请求就会更新自己的arp缓存,这样就会造成ip欺骗了,VIP被抢夺,所以就会有问题。 

arp缓存为什么会更新了,什么时候会更新呢,为了减少arp请求的次数,当主机接收到询问自己的arp请求的时候,就会把源ip和源Mac放入自 己的arp表里面,方便接下来的通讯。如果收到不是询问自己的包(arp是广播的,所有人都收到),就会丢掉,这样不会造成arp表里面无用数据太多导致 有用的记录被删除。 

在设置参数的时候将arp_ignore 设置为1,意味着当别人的arp请求过来的时候,如果接收的设备上面没有这个ip,就不做出响应,默认是0,只要这台机器上面任何一个设备上面有这个ip,就响应arp请求,并发送mac地址

1.4.7 arp_ignore

arp_ignore:定义对目标地址为本地IPARP询问不同的应答模式0

2  0 - (默认值): 回应任何网络接口上对任何本地IP地址的arp查询请求

2  1 - 只回答目标IP地址是来访网络接口本地地址的ARP查询请求

2  2 -只回答目标IP地址是来访网络接口本地地址的ARP查询请求,且来访IP必须在该网络接口的子网段内

2  3 - 不回应该网络界面的arp请求,而只对设置的唯一和连接地址做出回应

2  4-7 - 保留未使用

2  8 -不回应所有(本地地址)的arp查询

 

1.5 LVS集群工作模式--NAT

技术分享图片

当用户访问服务器集群提供的服务时,发往虚拟IP地址(负载均衡器的外部IP地址)的请求包到达负载均衡器。 负载均衡器检查数据包的目标地址和端口号。 如果根据虚拟服务器规则表匹配虚拟服务器服务,则通过调度算法从集群中选择真实的服务器,并将该连接添加到记录所建立的连接的哈希表中。 然后,将数据包的目的地址和端口重写为所选服务器的地址和端口,并将数据包转发给服务器。 当传入数据包属于此连接,并且可以在散列表中找到所选服务器时,数据包将被重写并转发到选定的服务器。 当应答报文返回时,负载均衡器将报文的源地址和端口重写为虚拟服务的源地址和端口。 连接终止或超时后,连接记录将在哈希表中删除。

NAT模式优缺点:

1NAT技术将请求的报文和响应的报文都需要通过LB进行地址改写,因此网站访问量比较大的时候LB负载均衡调度器有比较大的瓶颈,一般要求最多之能10-20台节点

2、只需要在LB上配置一个公网IP地址就可以了。

3、每台内部的节点服务器的网关地址必须是调度器LB的内网地址。

4NAT模式支持对IP地址和端口进行转换。即用户请求的端口和真实服务器的端口可以不一致。

1.6 LVS集群工作模式--TUN隧道模式

IP隧道(IP封装)是一种将IP数据报封装在IP数据报中的技术,它允许指向一个IP地址的数据报被封装并重定向到另一个IP地址。  IP封装现在通常用于ExtranetMobile-IPIP-Multicast,隧道主机或网络。

技术分享图片

当用户访问服务器集群提供的虚拟服务时,到达虚拟IP地址(虚拟服务器的IP地址)的包。 负载均衡器检查数据包的目标地址和端口。 如果它们与虚拟服务相匹配,则根据连接调度算法从集群中选择真实服务器,并将该连接添加到记录连接的哈希表中。 然后,负载均衡器将数据包封装在IP数据报中并转发给选定的服务器。 当一个传入的数据包属于这个连接,并且可以在散列表中找到所选的服务器时,数据包将被再次封装并转发到该服务器。 当服务器收到封装后的报文时,对报文进行解封装处理,直接将结果按照自己的路由表返回给用户。 连接终止或超时后,连接记录将从哈希表中删除。

1.7 LVS集群工作模式--FULLNAT

技术分享图片

l  LVSDRNAT模式要求RSLVS在同一个vlan中,导致部署成本过高;TUNNEL模式虽然可以跨vlan,但RealServer上需要部署ipip隧道模块等,网络拓扑上需要连通外网,较复杂,不易运维。为了解决上述问题,开发出

l  FULLNAT,该模式和NAT模式的区别是:数据包进入时,除了做DNAT,还做SNAT(用户ip->内网ip),从而实现LVS-RealServer间可以跨vlan通讯,RealServer只需要连接到内网。

l  类比地铁站多个闸机。

 

 

 

1.8 LVS负载均衡+keepalived高可用

1.8.1 负载介绍

软件负载

       nginxlvs nat 反向代理型负载均衡

       lvs dr 负载均衡

       haproxy

硬件负载

       F5 A10

ipvsadm -C

ipvsadm -Ln

1.8.2 搭建部署

1.清空ipvsadm(不使用ipvsadm)
[root@lb01 ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  10.0.0.3:80 wrr persistent 20
  -> 10.0.0.7:80                  Route   1      0          0        
  -> 10.0.0.8:80                  Route   1      0          0        
[root@lb01 ~]# ipvsadm -C
[root@lb01 ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
[root@lb01 ~]#
2.安装keepalived(两台lb都要安装)
[root@lb01 ~]# yum -y install keepalived
3.全局定义
[root@lb01 ~]# head -6 /etc/keepalived/keepalived.conf
! Configuration File for keepalived
 
global_defs {
   router_id 01
}
 
[root@lb01 ~]# [root@lnb02 ~]# head -6  /etc/keepalived/keepalived.conf
! Configuration File for keepalived
 
global_defs {
   router_id 02
}
 
[root@lnb02 ~]#
4.      VIP配置
vrrp_instance VI_1 {  #lb01.
    state MASTER
    interface eth0
    virtual_router_id 51
    priority 150
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        10.0.0.3/24
    }
}
vrrp_instance VI_1 {   #lb02
    state BACKUP
    interface eth0
    virtual_router_id 51
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
        10.0.0.3/24
    }
}
5.      LVS配置
[root@lb01 ~]# cat  /etc/keepalived/keepalived.conf
global_defs {
   router_id LVS_01
}
 
vrrp_instance VI_1 {
    state MASTER
    interface eth0
    virtual_router_id 51
    priority 150
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
     10.0.0.3/24
    }
}
 
virtual_server 10.0.0.3 80 {
    delay_loop 6           
    lb_algo wrr               
    lb_kind DR               
    nat_mask 255.255.255.0
    persistence_timeout 50    
    protocol TCP               
 
    real_server 10.0.0.7 80 {
        weight 1             
        TCP_CHECK {
        connect_timeout 8      
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
 
    real_server 10.0.0.8 80 {
        weight 1             
        TCP_CHECK {
        connect_timeout 8      
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
}
  
[root@lb01 ~]# [root@lnb02 keepalived]# cat keepalived.conf
global_defs {
   router_id LVS_02
}
 
vrrp_instance VI_1 {
    state BACKUP
    interface eth0
    virtual_router_id 51
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
     10.0.0.3/24
    }
}
virtual_server 10.0.0.3 80 {
    delay_loop 6         
    lb_algo wrr               
    lb_kind DR               
    nat_mask 255.255.255.0
    persistence_timeout 50    
    protocol TCP               
 
    real_server 10.0.0.7 80 {
        weight 1             
        TCP_CHECK {
        connect_timeout 8      
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
 
    real_server 10.0.0.8 80 {
        weight 1             
        TCP_CHECK {
        connect_timeout 8      
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
}
 
[root@lnb02 keepalived]#
6.      启动
[root@lb01 ~]# systemctl start keepalived.service
[root@lb01 ~]# ip addr show eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 00:0c:29:c4:d5:09 brd ff:ff:ff:ff:ff:ff
    inet 10.0.0.5/24 brd 10.0.0.255 scope global eth0
       valid_lft forever preferred_lft forever
    inet 10.0.0.3/24 scope global secondary eth0
       valid_lft forever preferred_lft forever
[root@lb01 ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  10.0.0.3:80 wrr persistent 50
  -> 10.0.0.7:80                  Route   1      0          0        
  -> 10.0.0.8:80                  Route   1      0          0        
[root@lb01 ~]#

 

1.8.3 多实例部署

[root@lb01 ~]# cat    /etc/keepalived/keepalived.conf
global_defs {
   router_id LVS_01
}
 
vrrp_instance VI_1 {
    state MASTER
    interface eth0
    virtual_router_id 51
    priority 150
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
     10.0.0.3/24
    }
}
vrrp_instance VI_2 {
    state BACKUP
    interface eth0
    virtual_router_id 52
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 2222
    }
    virtual_ipaddress {
     10.0.0.4/24
    }
}
 
virtual_server 10.0.0.3 80 {
    delay_loop 6           
    lb_algo wrr               
    lb_kind DR               
    nat_mask 255.255.255.0
    persistence_timeout 50    
    protocol TCP               
 
    real_server 10.0.0.7 80 {
        weight 1             
        TCP_CHECK {
        connect_timeout 8      
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
 
    real_server 10.0.0.8 80 {
        weight 1             
        TCP_CHECK {
        connect_timeout 8      
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
}
virtual_server 10.0.0.4 80 {
    delay_loop 6         
    lb_algo wrr               
    lb_kind DR               
    nat_mask 255.255.255.0
    persistence_timeout 50    
    protocol TCP               
 
    real_server 10.0.0.7 80 {
        weight 1             
        TCP_CHECK {
        connect_timeout 8      
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
 
    real_server 10.0.0.8 80 {
        weight 1             
        TCP_CHECK {
        connect_timeout 8      
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
}
 
[root@lb01 ~]# [root@lnb02 ~]# cat  /etc/keepalived/keepalived.conf
global_defs {
   router_id LVS_02
}
 
vrrp_instance VI_1 {
    state BACKUP
    interface eth0
    virtual_router_id 51
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
     10.0.0.3/24
    }
}
vrrp_instance VI_2 {
    state MASTER
    interface eth0
    virtual_router_id 52
    priority 150
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 2222
    }
    virtual_ipaddress {
     10.0.0.4/24
    }
}
 
virtual_server 10.0.0.3 80 {
    delay_loop 6         
    lb_algo wrr               
    lb_kind DR               
    nat_mask 255.255.255.0
    persistence_timeout 50    
    protocol TCP                
 
    real_server 10.0.0.7 80 {
        weight 1             
        TCP_CHECK {
        connect_timeout 8      
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
 
    real_server 10.0.0.8 80 {
        weight 1             
        TCP_CHECK {
        connect_timeout 8      
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
}
virtual_server 10.0.0.4 80 {
    delay_loop 6         
    lb_algo wrr               
    lb_kind DR               
    nat_mask 255.255.255.0
    persistence_timeout 50    
    protocol TCP               
 
    real_server 10.0.0.7 80 {
        weight 1             
        TCP_CHECK {
        connect_timeout 8      
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
 
    real_server 10.0.0.8 80 {
        weight 1             
        TCP_CHECK {
        connect_timeout 8      
        nb_get_retry 3
        delay_before_retry 3
        connect_port 80
        }
    }
}
 
[root@lnb02 ~]#
检查:
[root@lnb02 ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  10.0.0.3:80 wrr persistent 50
  -> 10.0.0.7:80                  Route   1      0          0        
  -> 10.0.0.8:80                  Route   1      0          0        
TCP  10.0.0.4:80 wrr persistent 50
  -> 10.0.0.7:80                  Route   1      0          0         
  -> 10.0.0.8:80                  Route   1      0          0        
[root@lnb02 ~]# [root@lb01 ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  10.0.0.3:80 wrr persistent 50
  -> 10.0.0.7:80                  Route   1      0          0        
  -> 10.0.0.8:80                  Route   1      0          0        
TCP  10.0.0.4:80 wrr persistent 50
  -> 10.0.0.7:80                  Route   1      0          0        
  -> 10.0.0.8:80                  Route   1      0          0        
[root@lb01 ~]#

 

 

 

 

 

 

 

 


LVS负载集群详解

标签:负载均衡集群   命令行   提高   查看   port   网络服务   lb01   内存   nbsp   

原文地址:http://blog.51cto.com/shengge520/2068996

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!