码迷,mamicode.com
首页 > 其他好文 > 详细

LVS负载均衡集群

时间:2018-03-21 15:00:15      阅读:193      评论:0      收藏:0      [点我收藏+]

标签:lvs   负载均衡   

第1章 LVS负载均衡集群简介

1.1 负载均衡介绍

1.1.1 负载均衡的妙用

负载均衡(Load Balance)集群提供了一种廉价、有效、透明的方法,来扩展网络设备和服务器的负载、带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。

单台计算机无法承受大规模的并发访问或数据流量了,此时需要搭建负载均衡集群把流量分摊到多台节点设备上分别处理,即减少用户等待响应的时间又提升了用户体验;

7*24小时的服务保证,任意一个或多个有限后端节点设备宕机,不能影响整个业务的运行。

1.1.2 为什么要用lvs

Nginx反向代理优点

工作在网络模型的7层,可以针对http应用做一些分流的策略,比如针对域名、目录结构,Nginx单凭这点可利用的场合就远多于LVS了。

最新版本的Nginx也支持4TCP负载,曾经这是LVSNginx好的地方。

Nginx对网络稳定性的依赖非常小,理论上能ping通就就能进行负载功能,这个也是它的优势之一,相反LVS对网络稳定性依赖比较大。

Nginx安装和配置比较简单,测试起来比较方便,它基本能把错误用日志打印出来。LVS的配置、测试就要花比较长的时间了,LVS对网络依赖比较大。

那为什么要用lvs呢?

ü 简单一句话,当并发超过了Nginx上限,就可以使用LVS了。

ü 1000-2000W PV或并发请求1万以下都可以考虑用Nginx

ü 大型门户网站,电商网站需要用到LVS

1.2 LVS介绍

        LVSLinux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统,可以在UNIX/LINUX平台下实现负载均衡集群功能。该项目在19985月由章文嵩博士组织成立,是中国国内最早出现的自由软件项目之一

1.2.1 相关参考资料

LVS官网:http://www.linuxvirtualserver.org/index.html


相关中文资料:

LVS项目介绍           http://www.linuxvirtualserver.org/zh/lvs1.html

LVS集群的体系结构     http://www.linuxvirtualserver.org/zh/lvs2.html

LVS集群中的IP负载均衡技术  http://www.linuxvirtualserver.org/zh/lvs3.html

LVS集群的负载调度      http://www.linuxvirtualserver.org/zh/lvs4.html

1.2.2 LVS内核模块ip_vs介绍

早在2.2内核时, IPVS就已经以内核补丁的形式出现。

2.4.23版本开始,IPVS软件就合并到Linux内核的常用版本的内核补丁的集合。

2.4.24以后IPVS已经成为Linux官方标准内核的一部分。

技术分享图片 

LVS无需安装

安装的是管理工具,第一种叫ipvsadm,第二种叫keepalive

ipvsadm是通过命令行管理,而keepalive读取配置文件管理

后面我们会用Shell脚本实现keepalive的功能

第2章 LVS集群部署

2.1 LVS集群搭建

2.1.1 集群环境说明

 

主机名

IP地址

软件

系统版本

lb03

10.0.0.15

lvs keepalived

CentOS Linux release 7.2.1511

lb04

10.0.0.16

lvs keepalived

CentOS Linux release 7.2.1511

web03

10.0.0.18

tomcat

CentOS Linux release 7.2.1511

web04

10.0.0.17

tomcat

CentOS Linux release 7.2.1511


主机说明

[root@lb03 ~]# cat /etc/redhat-release

CentOS Linux release 7.2.1511 (Core)

[root@lb03 ~]# uname -r

3.10.0-327.el7.x86_64

[root@lb03 ~]# getenforce

Disabled

[root@lb03 ~]# systemctl status firewalld.service

firewalld.service - firewalld - dynamic firewall daemon

   Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled)

   Active: inactive (dead)

web环境说明

技术分享图片 

技术分享图片 

 

2.1.2 安装ipvsadm管理工具(只在负载服务器上操作)

 

# 查看系统的LVS模块

lsmod|grep ip_vs

 

# 默认没有加载模块,需要安装管理工具才会激活

yum -y install ipvsadm

 

# 查看当前LVS状态,顺便激活LVS内核模块

ipvsadm

 

# 激活后查看系统的LVS模块

[root@lb03 ~]# ipvsadm

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn

[root@lb03 ~]# lsmod|grep ip_vs

ip_vs                 140944  0

nf_conntrack          105745  1 ip_vs

libcrc32c              12644  2 xfs,ip_vs

2.1.3 配置LVS负载均衡服务(在lb03操作)

步骤1:在eth0网卡绑定VIP地址(ip

步骤2:清除当前所有LVS规则(-C

步骤3:设置tcptcpfinudp链接超时时间(--set

步骤4:添加虚拟服务(-A),调度算法见man ipvsadm

步骤5:将虚拟服务关联到真实服务上(-a

步骤6:查看配置结果(-ln

 

操作命令

ip addr add 10.0.0.13/24 dev eth0

ipvsadm -C                    

ipvsadm --set 30 5 60         

ipvsadm -A -t 10.0.0.13:80 -s wrr -p 20   

ipvsadm -a -t 10.0.0.13:80 -r 10.0.0.17:80 -g -w 1

ipvsadm -a -t 10.0.0.13:80 -r 10.0.0.18:80 -g -w 1

ipvsadm -ln

 

参数说明:

-A  添加虚拟服务

-t  添加tcp IP地址

-s  指定轮询算法 rr 轮询 wrr 加权轮询

-p  指定超时时间

-a  关联真实服务器

-r  接真实服务器地址

-g  使用直接路由模式,这也是默认值  LVS4种工作状态

-w  权重

-l  查看结果

-n  不反向解析ip为域名

ipvsadm参数说明:(更多参照 man ipvsadm)

 

检查结果:

[root@lb03 ~]# ipvsadm -ln

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn

TCP  10.0.0.13:80 wrr persistent 20

  -> 10.0.0.17:80                 Route   1      0          0         

  -> 10.0.0.18:80                 Route   1      0          0    

 

参数

(短格式)

参数

(长格式)

参数说明

-A

--add-service

在内核的虚拟服务器表中添加一条新的虚拟服务器记录。也就是增加一台新的虚拟服务器。

-E

--edit-service

编辑内核虚拟服务器表中的一条虚拟服务器记录。

-D

--delete-service

删除内核虚拟服务器表中的一条虚拟服务器记录。

-C

--clear

清除内核虚拟服务器表中的所有记录。

-R

--restore

恢复虚拟服务器规则

-S

--save

保存虚拟服务器规则,输出为-R 选项可读的格式

-a

--add-server

在内核虚拟服务器表的一条记录里添加一条新的真实服务器记录。也就是在一个虚拟服务器中增加一台新的真实服务器

-e

--edit-server

编辑一条虚拟服务器记录中的某条真实服务器记录

-d

--delete-server

删除一条虚拟服务器记录中的某条真实服务器记录

-L|-l

--list

显示内核虚拟服务器表

-Z

--zero

虚拟服务表计数器清零(清空当前的连接数量等)

-

--set tcp tcpfin udp

设置连接超时值

-

--start-daemon

启动同步守护进程。他后面可以是master或backup,用来说明LVS Router 是master或是backup。在这个功能上也可以采用keepalived 的VRRP 功能。

-

--stop-daemon

停止同步守护进程

-h

--help

显示帮助信息

-t

--tcp-service service-address [vip:port] or [real-server-ip:port]

说明虚拟服务器提供的是tcp 的服务

-u

--udp-service service-address [vip:port] or [real-server-ip:port]

说明虚拟服务器提供的是udp 的服务

-f

--fwmark-servicefwmark

说明是经过iptables 标记过的服务类型。

-s

--scheduler scheduler

使用的调度算法,有这样几个选项

rr|wrr|lc|wlc|lblc|lblcr|dh|sh|sed|nq

默认的调度算法是: wlc

-p

--persistent [timeout]

持久稳固的服务。这个选项的意思是来自同一个客户的多次请求,将被同一台真实的服务器处理。timeout 的默认值为300秒。

-M

--netmask netmask

persistent granularity mask

-r

--real-server server-address

真实的服务器[Real-Server:port]

-g

--gatewaying

指定LVS 的工作模式为直接路由模式(也是LVS 默认的模式)

-i

--ipip

指定LVS 的工作模式为隧道模式

-m

--masquerading

指定LVS 的工作模式为NAT 模式

-w

--weight weight

真实服务器的权值

-

--mcast-interface

interface 指定组播的同步接口

-c

--connection

显示LVS 目前的连接 如:ipvsadm -L -c

-

--timeout   

显示tcp tcpfin udp 的timeout 值 如:ipvsadm -L --timeout

-

--daemon    

显示同步守护进程状态

-

--stats     

显示统计信息

-

--rate      

显示速率信息

-

--sort      

对虚拟服务器和真实服务器排序输出

-

--numeric -n

输出IP 地址和端口的数字形式

 

2.1.4 web服务器配置(在web03/web04同时操作下面步骤)

步骤1:在lo网卡绑定VIP地址(ip

步骤2:修改内核参数抑制ARP响应

 

操作命令

ip addr add 10.0.0.13/32 dev lo

 

cat >>/etc/sysctl.conf<<EOF

net.ipv4.conf.all.arp_ignore = 1

net.ipv4.conf.all.arp_announce = 2

net.ipv4.conf.lo.arp_ignore = 1

net.ipv4.conf.lo.arp_announce = 2

EOF

sysctl -p

 

至此LVS集群配置完毕——进行验证

 

技术分享图片 

技术分享图片 

 

疑问解答:

问题1:浏览器访问没有发现轮询效果

   答:LVS的轮询不像Nginx明显,可以使用多个客户端访问(WindowsLinux


问题2:使用抓包工具,发现进行通信的是WindowsIPlb0380端口,但是lb03明明没有80端口?

    答:windows抓包查看,可以发现数据包的源MAC地址是web03web04,说明真正响应客户端请求的是web03web04

          Linuxtcpdump -nn port 80;  tcpdump -nn -e port 80

 

arp解析查看:

[root@lb04 ~]# arp -n

Address                  HWtype  HWaddress           Flags Mask            Iface

10.0.0.1                 ether   00:50:56:c0:00:08   C                     eth0

10.0.0.17                ether   00:50:56:26:50:8a   C                     eth0

10.0.0.18                ether   00:50:56:23:12:f3   C                     eth0

10.0.0.254               ether   00:50:56:e4:7f:10   C                     eth0

 

[f:\~]$ arp -a

接口: 10.0.0.1 --- 0x13

  Internet 地址         物理地址              类型

  10.0.0.13             00-50-56-32-cc-5b     动态        

  10.0.0.15             00-50-56-2b-cd-ba     动态        

  10.0.0.16             00-50-56-32-cc-5b     动态        

  10.0.0.17             00-50-56-26-50-8a     动态        

  10.0.0.18             00-50-56-23-12-f3     动态    

技术分享图片 

2.2 负载均衡(LVS)相关名词

技术分享图片 

 

术语说明:

DSDirector Server。指的是前端负载均衡器节点。

RSReal Server。后端真实的工作服务器。

VIP:向外部直接面向用户请求,作为用户请求的目标的IP地址。

DIPDirector Server IP,主要用于和内部主机通讯的IP地址。

RIPReal Server IP,后端服务器的IP地址。

CIPClient IP,访问客户端的IP地址。

 

2.3 LVS集群的工作模式--DR直接路由模式

        DR模式是通过改写请求报文的目标MAC地址,将请求发给真实服务器的,而真实服务器将响应后的处理结果直接返回给客户端用户。

DR技术可极大地提高集群系统的伸缩性。但要求调度器LB与真实服务器RS都有一块物理网卡连在同一物理网段上,即必须在同一局域网环境。

技术分享图片 

DR直接路由模式说明:

通过在调度器LB上修改数据包的目的MAC地址实现转发。注意,源IP地址仍然是CIP,目的IP地址仍然是VIP


请求的报文经过调度器,而RS响应处理后的报文无需经过调度器LB,因此,并发访问量大时使用效率很高,比Nginx代理模式强于此处。


DR模式是通过MAC地址的改写机制实现转发的,因此,所有RS节点和调度器LB只能在同一个局域网中。需要注意RS节点的VIP的绑定(lo:vip/32)ARP抑制问题。


强调下:RS节点的默认网关不需要是调度器LBDIP,而应该直接是IDC机房分配的上级路由器的IP(这是RS带有外网IP地址的情况),理论上讲,只要RS可以出网即可,不需要必须配置外网IP,但走自己的网关,那网关就成为瓶颈了。


由于DR模式的调度器仅进行了目的MAC地址的改写,因此,调度器LB无法改变请求报文的目的端口。LVS DR模式的办公室在二层数据链路层(MAC),NAT模式则工作在三层网络层(IP)和四层传输层(端口)。


当前,调度器LB支持几乎所有UNIXLinux系统,但不支持windows系统。真实服务器RS节点可以是windows系统。


总之,DR模式效率很高,但是配置也较麻烦。因此,访问量不是特别大的公司可以用haproxy/Nginx取代之。这符合运维的原则:简单、易用、高效。日1000-2000W PV或并发请求1万以下都可以考虑用haproxy/Nginx(LVSNAT模式)


直接对外的访问业务,例如web服务做RS节点,RS最好用公网IP地址。如果不直接对外的业务,例如:MySQL,存储系统RS节点,最好只用内部IP地址。

 

DR的实现原理和数据包的改变

技术分享图片 

DR原理:

1. 当用户请求到达Director Server,此时请求的数据报文会先到内核空间的PREROUTING链。 此时报文的源IP为CIP,目标IP为VIP

2. PREROUTING检查发现数据包的目标IP是本机,将数据包送至INPUT链

3. IPVS比对数据包请求的服务是否为集群服务,若是,将请求报文中的源MAC地址修改为DIP的MAC地址,将目标MAC地址修改RIP的MAC地址,然后将数据包发至POSTROUTING链。 此时的源IP和目的IP均未修改,仅修改了源MAC地址为DIP的MAC地址,目标MAC地址为RIP的MAC地址

4. 由于DS和RS在同一个网络中,所以是通过二层来传输。POSTROUTING链检查目标MAC地址为RIP的MAC地址,那么此时数据包将会发至Real Server。

5. RS发现请求报文的MAC地址是自己的MAC地址,就接收此报文。处理完成之后,将响应报文通过lo接口传送给eth0网卡然后向外发出。 此时的源IP地址为VIP,目标IP为CIP

6. 响应报文最终送达至客户端

2.4 web端的操作有什么含义?

2.4.1 RealServer为什么要在lo接口上配置VIP

答:既然要让RS能够处理目标地址为vipIP包,首先必须要让RS能接收到这个包。

   lo上配置vip能够完成接收包并将结果返回client

2.4.2 eth0网卡上配置VIP可以吗?

答:不可以,将VIP设置在eth0网卡上,会影响RSarp请求,造成整体LVS集群arp缓存表紊乱,以至于整个负载均衡集群都不能正常工作。

2.4.3 为什么要抑制ARP响应?

先回顾ARP知识及了解arp_announcearp_ignore作用。


arp协议说明


ARP协议,全称"Address Resolution Protocol",中文名是地址解析协议,使用ARP协议可实现通过IP地址获得对应主机的物理地址(MAC地址)

ARP协议要求通信的主机双方必须在同一个物理网段(即局域网环境)!

为了提高IP转换MAC的效率,系统会将解析结果保存下来,这个结果叫做ARP缓存。

Windows查看ARP缓存命令 arp -a

Linux查看ARP缓存命令 arp -nCentOS7需要安装net-tools

Linux解析IP对应的MAC地址 arping -c 1 -I eth0 10.0.0.17

 

ARP缓存表是把双刃剑

(1) 主机有了arp缓存表,可以加快ARP的解析速度,减少局域网内广播风暴。因为arp是发广播解析的,频繁的解析也是消耗带宽的,尤其是机器多的时候。

(2) 正是有了arp缓存表,给恶意黑客带来了攻击服务器主机的风险,这个就是arp欺骗攻击。

(3) 切换路由器,负载均衡器等设备时,可能会导致短时网络中断。原因是所有的客户端ARP缓存表没有更新

服务器切换ARP问题

当集群中一台提供服务的lb01机器宕机后,然后VIP会转移到备机lb02上,但是客户端的ARP缓存表的地址解析还是宕机的lb01MAC地址。从而导致,即使在lb02上添加VIP,也会发生客户端无法访问的情况。

解决办法是:当lb01宕机,VIP地址迁移到lb02时,需要通过arping命令通知所有网络内机器更新本地的ARP缓存表,从而使得客户机访问时重新广播获取MAC地址。

这个是自己开发服务器高可用脚本及所有高可用软件必须考虑到的问题。

 

ARP广播进行新的地址解析

arping -I eth0 -c 1 -U VIP

arping -I eth0 -c 1 -U 10.0.0.13

 

测试命令

ip addr del 10.0.0.13/24 dev eth0

ip addr add 10.0.0.13/24 dev eth0

ip addr show eth0

arping -I eth0 -c 1 -U 10.0.0.13


arp_announcearp_ignore详解

配置的内核参数

net.ipv4.conf.all.arp_ignore = 1

net.ipv4.conf.all.arp_announce = 2

net.ipv4.conf.lo.arp_ignore = 1

net.ipv4.conf.lo.arp_announce = 2

lvsDR模式下需要关闭arp功能

 

arp_announce

对网络接口上,本地IP地址的发出的,ARP回应,作出相应级别的限制:

确定不同程度的限制,宣布对来自本地源IP地址发出Arp请求的接口

数值

含义

0(默认)

在任意网络接口(eth0,eth1,lo)上的任何本地地址

1

尽量避免不在该网络接口子网段的本地地址做出arp回应. 当发起ARP请求的源IP地址 是被设置应该经由路由达到此网络接口的时候很有用.此时会检查来访IP是否为所有接口 上的子网段内ip之一.如果改来访IP不属于各个网络接口上的子网段内,那么将采用级别2的方式来进行处理.

2

对查询目标使用最适当的本地地址.在此模式下将忽略这个IP数据包的源地址并尝试 选择与能与该地址通信的本地地址.首要是选择所有的网络接口的子网中外出访问子网中 包含该目标IP地址的本地地址. 如果没有合适的地址被发现,将选择当前的发送网络接口或其他的有可能接受到该ARP回应的网络接口来进行发送.

 

arp_ignore

对目标地定义对目标地址为本地IPARP询问不同的应答模式0

数值

含义

0(默认值)

回应任何网络接口上对任何本地IP地址的arp查询请求

1

只回答目标IP地址是来访网络接口本地地址的ARP查询请求

2

只回答目标IP地址是来访网络接口本地地址的ARP查询请求,且来访IP必须在该网络接口的子网段内

3

不回应该网络界面的arp请求,而只对设置的唯一和连接地址做出回应

4-7

保留未使用

8

不回应所有(本地地址)的arp查询

抑制RSarp前的广播情况

技术分享图片 


抑制RSarp后广播情况

技术分享图片 

第3章 LVS集群的工作模式

3.1 LVS集群的工作模式总结

DRDirect Routing)直接路由模式

NATNetwork Address Translation

TUNTunneling)隧道模式

FULLNATFull Network Address Translation

3.1.1 LVS集群的工作模式--NAT

技术分享图片 

        通过网络地址转换,调度器LB重写请求报文的目标地址,根据预设的调度算法,将请求分派给后端的真实服务器,真实服务器的响应报文处理之后,返回时必须要通过调度器,经过调度器时报文的源地址被重写,再返回给客户,完成整个负载调度过程。

收费站模式---来去都要经过LB负载均衡器。

NAT方式的实现原理和数据包的改变

技术分享图片 

NAT方式的实现原理和数据包的改变描述

1.当用户请求到达Director Server,此时请求的数据报文会先到内核空间的PREROUTING链。 此时报文的源IPCIP,目标IPVIP

2.PREROUTING检查发现数据包的目标IP是本机,将数据包送至INPUT

3. IPVS比对数据包请求的服务是否为集群服务,若是,修改数据包的目标IP地址为后端服务器IP,然后将数据包发至POSTROUTING链。 此时报文的源IPCIP,目标IPRIP

4.POSTROUTING链通过选路,将数据包发送给Real Server

5. Real Server比对发现目标为自己的IP,开始构建响应报文发回给Director Server。 此时报文的源IPRIP,目标IPCIP

6. Director Server在响应客户端前,此时会将源IP地址修改为自己的VIP地址,然后响应给客户端。 此时报文的源IPVIP,目标IPCIP

 

LVS-NAT模型的特性

RS应该使用私有地址,RS的网关必须指向DIP

DIPRIP必须在同一个网段内

请求和响应报文都需要经过Director Server,高负载场景中,Director Server易成为性能瓶颈

支持端口映射

RS可以使用任意操作系统

缺陷:对Director Server压力会比较大,请求和响应都需经过director server

3.1.2 LVS集群的工作模式--隧道模式TUN

技术分享图片 

 

        采用NAT技术时,由于请求和响应的报文都必须经过调度器地址重写,当客户请求越来越多时,调度器的处理能力将成为瓶颈,为了解决这个问题,调度器把请求的报文通过IP隧道(相当于ipip或ipsec )转发至真实服务器,而真实服务器将响应处理后直接返回给客户端用户,这样调度器就只处理请求的入站报文。由于一般网络服务应答数据比请求报文大很多,采用 VS/TUN技术后,集群系统的最大吞吐量可以提高10倍。

 

        VS/TUN工作流程,它的连接调度和管理与VS/NAT中的一样,只是它的报文转发方法不同。调度器根据各个服务器的负载情况,连接数多少,动态地选择一台服务器,将原请求的报文封装在另一个IP报文中,再将封装后的IP报文转发给选出的真实服务器;真实服务器收到报文后,先将收到的报文解封获得原来目标地址为VIP地址的报文, 服务器发现VIP地址被配置在本地的IP隧道设备上(此处要人为配置),所以就处理这个请求,然后根据路由表将响应报文直接返回给客户。


TUN原理和数据包的改变

技术分享图片 

TUN原理和数据包的改变描述

1.当用户请求到达Director Server,此时请求的数据报文会先到内核空间的PREROUTING链。 此时报文的源IP为CIP,目标IP为VIP 。

2.PREROUTING检查发现数据包的目标IP是本机,将数据包送至INPUT链

3.IPVS比对数据包请求的服务是否为集群服务,若是,在请求报文的首部再次封装一层IP报文,封装源IP为为DIP,目标IP为RIP。然后发至POSTROUTING链。 此时源IP为DIP,目标IP为RIP

4.POSTROUTING链根据最新封装的IP报文,将数据包发至RS(因为在外层封装多了一层IP首部,所以可以理解为此时通过隧道传输)。 此时源IP为DIP,目标IP为RIP

5. RS接收到报文后发现是自己的IP地址,就将报文接收下来,拆除掉最外层的IP后,会发现里面还有一层IP首部,而且目标是自己的lo接口VIP,那么此时RS开始处理此请求,处理完成之后,通过lo接口送给eth0网卡,然后向外传递。 此时的源IP地址为VIP,目标IP为CIP

6.响应报文最终送达至客户端

LVS-Tun模型特性

RIPVIPDIP全是公网地址

RS的网关不会也不可能指向DIP

所有的请求报文经由Director Server,但响应报文必须不能进过Director Server

不支持端口映射

RS的系统必须支持隧道

3.1.3 LVS集群的工作模式--FULLNAT

技术分享图片 

        LVS的DR和NAT模式要求RS和LVS在同一个vlan中,导致部署成本过高;TUNNEL模式虽然可以跨vlan,但RealServer上需要部署ipip隧道模块等,网络拓扑上需要连通外网,较复杂,不易运维。

为了解决上述问题,开发出FULLNAT,该模式和NAT模式的区别是:数据包进入时,除了做DNAT,还做SNAT(用户ip->内网ip),从而实现LVS-RealServer间可以跨vlan通讯,RealServer只需要连接到内网。

类比地铁站多个闸机。

第4章 LVS+Keepalived方案实现

4.1 安装部署LVS+Keepalived

4.1.1 keepalived功能

1. 添加VIP

2. 添加LVS配置

3. 高可用(VIP漂移)

4. web服务器健康检查

4.1.2 在负载器安装Keepalived软件

安装keepalived

yum -y install keepalived

 

检查软件是否安装

[root@lb03 ~]# rpm -qa keepalived

keepalived-1.3.5-1.el7.x86_64

4.1.3 修改配置文件

lb03keepalied配置文件

vim /etc/keepalived/keepalived.conf

global_defs {

   router_id LVS_03

}

 

vrrp_instance VI_1 {

    state MASTER

    interface eth0

    virtual_router_id 51

    priority 150

    advert_int 1

    authentication {

        auth_type PASS

        auth_pass 1111

    }

    virtual_ipaddress {

     10.0.0.13/24

    }

}

 

virtual_server 10.0.0.13 80 {

    delay_loop 6          

    lb_algo wrr                

    lb_kind DR                

    nat_mask 255.255.255.0

    persistence_timeout 50     

    protocol TCP                

 

    real_server 10.0.0.17 80 {

        weight 1              

        TCP_CHECK {

        connect_timeout 8       

        nb_get_retry 3

        delay_before_retry 3

        connect_port 80

        }

    }

 

    real_server 10.0.0.18 80 {

        weight 1              

        TCP_CHECK {

        connect_timeout 8       

        nb_get_retry 3

        delay_before_retry 3

        connect_port 80

        }

    }

}

 

lb04Keepalied配置文件

global_defs {

   router_id LVS_02

}

 

vrrp_instance VI_1 {

    state BACKUP

    interface eth0

    virtual_router_id 51

    priority 100

    advert_int 1

    authentication {

        auth_type PASS

        auth_pass 1111

    }

    virtual_ipaddress {

     10.0.0.13/24

    }

}

virtual_server 10.0.0.13 80 {

    delay_loop 6          

    lb_algo wrr                

    lb_kind DR                

    nat_mask 255.255.255.0

    persistence_timeout 50     

    protocol TCP                

 

    real_server 10.0.0.17 80 {

        weight 1              

        TCP_CHECK {

        connect_timeout 8       

        nb_get_retry 3

        delay_before_retry 3

        connect_port 80

        }

    }

 

    real_server 10.0.0.18 80 {

        weight 1              

        TCP_CHECK {

        connect_timeout 8       

        nb_get_retry 3

        delay_before_retry 3

        connect_port 80

        }

    }

}

 

4.1.4 启动keepalived服务

[root@lb03 ~]# systemctl start keepalived.service

 

检查lvs状态

[root@lb03 ~]# ipvsadm -ln                        

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn

TCP  10.0.0.13:80 wrr persistent 50

  -> 10.0.0.17:80                 Route   1      0          0         

  -> 10.0.0.18:80                 Route   1      0          0  

 

检查虚拟ip

[root@lb03 ~]# ip a s eth0

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000

    link/ether 00:0c:29:de:7c:97 brd ff:ff:ff:ff:ff:ff

    inet 10.0.0.15/24 brd 10.0.0.255 scope global eth0

       valid_lft forever preferred_lft forever

    inet 10.0.0.13/24 scope global secondary eth0

       valid_lft forever preferred_lft forever

    inet6 fe80::20c:29ff:fede:7c97/64 scope link

       valid_lft forever preferred_lft forever

4.1.5 web服务器上进行配置

(在web03/web04同时操作下面步骤)

步骤1:在lo网卡绑定VIP地址(ip

步骤2:修改内核参数抑制ARP响应

 

ip addr add 10.0.0.13/32 dev lo

 

cat >>/etc/sysctl.conf<<EOF

net.ipv4.conf.all.arp_ignore = 1

net.ipv4.conf.all.arp_announce = 2

net.ipv4.conf.lo.arp_ignore = 1

net.ipv4.conf.lo.arp_announce = 2

EOF

sysctl -p

 

注意:web服务器上的配置为临时生效,可以将其写入rc.local文件,注意文件的执行权限

在浏览器测试

4.2 常见LVS负载均衡高可用解决方案

开发类似keepalived的脚本,早期的办法,现在不推荐使用。

heartbeat+lvs+ldirectord脚本配置方案,复杂不易控制,不推荐使用

RedHat工具piranha,一个web界面配置LVS

LVS-DR+keepalived方案,老师推荐最优方案,简单、易用、高效。

4.3 lvs排错思路

技术分享图片


LVS负载均衡集群

标签:lvs   负载均衡   

原文地址:http://blog.51cto.com/12805107/2089391

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!