码迷,mamicode.com
首页 > 其他好文 > 详细

nginx利用geo模块做限速白名单以及geo实现全局负载均衡的操作记录

时间:2016-12-12 20:17:33      阅读:289      评论:0      收藏:0      [点我收藏+]

标签:80端口   情况   编译安装nginx   res   end   同步   eal   down   str   

 

geo指令使用ngx_http_geo_module模块提供的。默认情况下,nginx有加载这个模块,除非人为的 --without-http_geo_module。
ngx_http_geo_module模块可以用来创建变量,其值依赖于客户端IP地址。
geo指令
语法: geo [$address] $variable { ... }
默认值: —
配置段: http
定义从指定的变量获取客户端的IP地址。默认情况下,nginx从$remote_addr变量取得客户端IP地址,但也可以从其他变量获得。
例如:
geo $remote_addr $geo {
default 0;
127.0.0.1 1;
}
geo $arg_ttlsa_com $geo {
default 0;
127.0.0.1 1;
}

如果该变量的值不能代表一个合法的IP地址,那么nginx将使用地址“255.255.255.255”。
nginx通过CIDR或者地址段来描述地址,支持下面几个参数:
1)delete:删除指定的网络
2)default:如果客户端地址不能匹配任意一个定义的地址,nginx将使用此值。 如果使用CIDR,可以用“0.0.0.0/0”代替default。
3)include: 包含一个定义地址和值的文件,可以包含多个。
4)proxy:定义可信地址。 如果请求来自可信地址,nginx将使用其“X-Forwarded-For”头来获得地址。 相对于普通地址,可信地址是顺序检测的。
5)proxy_recursive:开启递归查找地址。 如果关闭递归查找,在客户端地址与某个可信地址匹配时,nginx将使用“X-Forwarded-For”中的最后一个地址来代替原始客户端地址。如果开启递归查找,在客户端地址与某个可信地址匹配时,nginx将使用“X-Forwarded-For”中最后一个与所有可信地址都不匹配的地址来代替原始客户端地址。
6)ranges:使用以地址段的形式定义地址,这个参数必须放在首位。为了加速装载地址库,地址应按升序定义。

geo $country {
default ZZ;
include conf/geo.conf;
delete 127.0.0.0/16;
proxy 192.168.100.0/24;
proxy 2001:0db8::/32;

127.0.0.0/24 US;
127.0.0.1/32 RU;
10.1.0.0/16 RU;
192.168.1.0/24 UK;
}

# vim conf/geo.conf
10.2.0.0/16 RU;
192.168.2.0/24 RU;

地址段例子:
geo $country {
ranges;
default ZZ;
127.0.0.0-127.0.0.0 US;
127.0.0.1-127.0.0.1 RU;
127.0.0.1-127.0.0.255 US;
10.1.0.0-10.1.255.255 RU;
192.168.1.0-192.168.1.255 UK;
}

geo指令主要是根据IP来对变量进行赋值的。因此geo块下只能定义IP或网络段,否则会报错。

一、nginx利用geo模块做限速白名单操作
nginx的限速白名单需要结合geo和map指令来实现,其中:
map指令使用ngx_http_map_module模块提供的。默认情况下,nginx有加载这个模块,除非人为的 --without-http_map_module。
ngx_http_map_module模块可以创建变量,这些变量的值与另外的变量值相关联。允许分类或者同时映射多个值到多个不同值并储存到一个变量中,map指令用来创建变量,但是仅在变量被接受的时候执行视图映射操作,对于处理没有引用变量的请求时,这个模块并没有性能上的缺失。

废话不多说,直接看限速白名单配置:

http {
 geo $whiteiplist  {
 default 1;
 127.0.0.1 0;
 10.0.0.0/8 0;
 121.207.242.0/24 0;
 }
 
 map $whiteiplist  $limit {
 1 $binary_remote_addr;
 0 "";
 }
 
 limit_conn_zone $limit zone=limit:10m;
 
 server {
        listen       8080;
        server_name  test.ttlsa.com;
 
        location ^~ /ttlsa.com/ {
                limit_conn limit 4;
                limit_rate 200k;
                alias /data/www.ttlsa.com/data/download/;
        }
 }
}

配置要点解释:
1)geo指令定义一个白名单$whiteiplist, 默认值为1, 所有都受限制。 如果客户端IP与白名单列出的IP相匹配,则$whiteiplist值为0也就是不受限制。
2)map指令是将$whiteiplist值为1的,也就是受限制的IP,映射为客户端IP。将$whiteiplist值为0的,也就是白名单IP,映射为空的字符串。
3)limit_conn_zone和limit_req_zone指令对于键为空值的将会被忽略,从而实现对于列出来的IP不做限制。

测试方法:
# ab -c 100 -n 300 http://test.ttlsa.com:8080/ttlsa.com/docs/pdf/nginx_guide.pdf

二、nginx利用geo模块做负载均衡的操作记录
实验信息:
server1 : 192.168.6.101
server2 : 192.168.6.102
server3 : 192.168.6.121

测试机1 IP:192.168.6.2
测试机2 IP:192.168.6.8
测试机3 IP:192.168.6.189

1)在每台server上都编译安装nginx(略)
server1,与server2 的配置我没有改动~只把他的主页改一下,这样有利于测试!
server1机器上:
shell $> cd /usr/local/nginx/html
shell $> rm index.html
shell $> echo "192.168.6.101" > index.html

server2机器上:
shell $> cd /usr/local/nginx/html
shell $> rm index.html
shell $> echo "192.168.6.102" > index.html

启动server1和server2的nginx
$> /usr/local/nginx/sbin/nginx

2)修改server3的配置
shell $> cd /usr/local/nginx/conf/
shell $> vim nginx.conf

worker_processes 1;
  
events {
  worker_connections 1024;
}
http {
  include    mime.types;
  default_type application/octet-stream;
  geo $geo {
    default default;
    192.168.6.189/32    uk;
    192.168.6.8/32     us;
#这里的子网码是 32 是因为,我是单网段测试,如果你有VLAN,你可以是24 例如
# 192.168.0.0/24   tw
  }
  upstream  uk.server {
    server 192.168.6.101;
  }
  upstream  us.server {
    server 192.168.6.102;
  }
  upstream  default.server {
    server 192.168.6.121:8080;
  }
  sendfile    on;
  keepalive_timeout 65;
 
  server {
    listen    80;
    server_name 192.168.6.121;
    index index.html index.htm;
    root html;
 
    location / {
        proxy_redirect off;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_pass http://$geo.server$request_uri;
    }
    error_page  500 502 503 504 /50x.html;
    location = /50x.html {
      root  html;
    }
  
  }
  
  server {
    listen    8080;
    server_name 192.168.6.121;
    location / {
      root  html;
      index index.html index.htm;
    }
  }
}


3)测试,在测试机1上打开浏览器输入
http://192.168.6.121

技术分享

因为测试机1的IP地址为192.168.6.2,按照nginx配置,他访问的很明显是server3的8080端口!因为server1、server2 的index.html上面已经修改了

在 测试机2上打开浏览器~输入
http://192.168.6.121

技术分享

在 测试机3上打开浏览器~输入
http://192.168.6.121
测试机3的IP为192.168.6.189

技术分享

很明显,负载均衡起到了作用~~~
这样就可以把 三台服务器分别放到不同的IDC 机房。然后在数据同步就可以了~这样做的好处就是省去了在DNS 上做手脚,因为智能DNS 有时候按照来访IP解析的时候会解析对方的DNS地址,把他匹配到一台服务器,如果对方是网通用户,他用的电信DNS,会直接把他匹配到电信的服务器,NGINX,确确实实的根据来访问IP来匹配服务器的,这样只要我们把各地区的IP段收集起来就可以了~~

nginx利用geo模块做限速白名单以及geo实现全局负载均衡的操作记录

标签:80端口   情况   编译安装nginx   res   end   同步   eal   down   str   

原文地址:http://www.cnblogs.com/kevingrace/p/6165572.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!