标签:upd 查看 running 运行 label 实现 tin 代理服务器 机器
本节内容:
在前面的安装部署kubernetes集群中已经简单用示例来演示了Pod和Service,Kubernetes通过Service资源在Kubernetes集群内针对容器实现了服务发现和负载均衡。而Service就是kubernetes服务发现与负载均衡中的一种。
目前,kubernetes中的负载均衡大致可以分为以下几种机制,每种机制都有其特定的应用场景:
1. Service
Service是对一组提供相同功能的Pods的抽象,并为它们提供一个统一的入口。借助Service,应用可以方便的实现服务发现与负载均衡,并实现应用的零宕机升级。Service通过标签来选取服务后端,一般配合Replication Controller或者Deployment来保证后端容器的正常运行。这些匹配标签的Pod IP和端口列表组成endpoints,由kube-proxy负责将服务IP负载均衡到这些endpoints上。
Service有四种类型:
另外,也可以将已有的服务以Service的形式加入到Kubernetes集群中来,只需要在创建 Service的时候不指定Label selector,而是在Service创建好后手动为其添加endpoint。
Service虽然解决了服务发现和负载均衡的问题,但它在使用上还是有一些限制,比如
2. Ingress和Ingress Controller简介
(1)Ingress
Ingress就是为了解决这些限制而引入的新资源,主要用来将服务暴露到cluster外面,并且可以自定义服务的访问策略。比如想要通过负载均衡器实现不同子域名到不同服务的访问:
foo.bar.com --| |-> foo.bar.com s1:80
| 178.91.123.132 |
bar.foo.com --| |-> bar.foo.com s2:80
可以这样来定义Ingress:
apiVersion: extensions/v1beta1 kind: Ingress metadata: name: test spec: rules: - host: foo.bar.com http: paths: - backend: serviceName: s1 servicePort: 80 - host: bar.foo.com http: paths: - backend: serviceName: s2 servicePort: 80
【注意】:Ingress本身并不会自动创建负载均衡器,cluster中需要运行一个ingress controller来根据Ingress的定义来管理负载均衡器。
目前社区提供了 nginx和gce的参考实现
简单的说,ingress就是从kubernetes集群外访问集群的入口,将用户的URL请求转发到不同的service上。Ingress相当于nginx、apache等负载均衡方向代理服务器,其中还包括规则定义,即URL的路由信息,路由信息得的刷新由Ingress controller来提供。
(2)Ingress Controller
Ingress Controller 实质上可以理解为是个监视器,Ingress Controller 通过不断地跟 kubernetes API 打交道,实时的感知后端 service、pod 等变化,比如新增和减少 pod,service 增加与减少等;当得到这些变化信息后,Ingress Controller 再结合下文的 Ingress 生成配置,然后更新反向代理负载均衡器,并刷新其配置,达到服务发现的作用。
在使用Ingress resource之前,有必要先了解下面几件事情。Ingress是beta版本的resource,在kubernetes1.1之前还没有。你需要一个Ingress Controller来实现Ingress,单纯的创建一个Ingress没有任何意义。
目前社区提供了 nginx和gce的参考实现。当然还有其他实现,开源的 NGINX 和 NGINX Plus 开发了相应的 Ingress controller。
(1)使用 NGINX 和 NGINX Plus 的 Ingress Controller 进行 Kubernetes 的负载均衡
https://github.com/nginxinc/kubernetes-ingress/tree/master/examples/complete-example
[root@node1 nginx_ingress]# kubectl create -f nginx-ingress-rbac.yaml [root@node1 nginx_ingress]# kubectl create -f default-server-secret.yaml secret "default-server-secret" created [root@node1 nginx_ingress]# kubectl create -f nginx-ingress-rc.yaml replicationcontroller "nginx-ingress-rc" created [root@node1 nginx_ingress]# kubectl get pods -l app=nginx-ingress -o wide NAME READY STATUS RESTARTS AGE IP NODE nginx-ingress-rc-rs1vh 1/1 Running 0 37s 172.30.87.4 172.16.7.151 # 查看pod日志 [root@node1 nginx_ingress]# kubectl logs nginx-ingress-rc-rs1vh I0924 07:27:37.663514 1 main.go:58] Starting NGINX Ingress controller Version 1.0.0 2017/09/24 07:27:37 [notice] 20#20: signal process started I0924 07:27:37.975349 1 event.go:218] Event(v1.ObjectReference{Kind:"Secret", Namespace:"default", Name:"default-server-secret", UID:"4e2d9567-9f5a-11e7-9acc-005056b7609a", APIVersion:"v1", ResourceVersion:"1019701", FieldPath:""}): type: ‘Normal‘ reason: ‘Updated‘ the default server Secret default/default-server-secret was updated 2017/09/24 07:27:37 [notice] 26#26: signal process started 2017/09/24 07:27:38 [notice] 30#30: signal process started 2017/09/24 07:27:38 [notice] 34#34: signal process started 2017/09/24 07:27:38 [notice] 38#38: signal process started I0924 07:27:38.073475 1 event.go:218] Event(v1.ObjectReference{Kind:"Ingress", Namespace:"kube-system", Name:"traefik-web-ui", UID:"5d604da9-9f61-11e7-9acc-005056b7609a", APIVersion:"extensions", ResourceVersion:"1024008", FieldPath:""}): type: ‘Normal‘ reason: ‘AddedOrUpdated‘ Configuration for kube-system/traefik-web-ui was added or updated 2017/09/24 07:27:38 [notice] 44#44: signal process started I0924 07:27:38.100887 1 event.go:218] Event(v1.ObjectReference{Kind:"Ingress", Namespace:"default", Name:"traefik-ingress", UID:"5d693739-9f61-11e7-9acc-005056b7609a", APIVersion:"extensions", ResourceVersion:"1024009", FieldPath:""}): type: ‘Normal‘ reason: ‘AddedOrUpdated‘ Configuration for default/traefik-ingress was added or updated
(2)配置需要测试的service
部署两个服务nginx 1.7和nginx 1.8:
apiVersion: v1 kind: Service metadata: name: frontend spec: ports: - port: 80 targetPort: 80 selector: app: nginx1-7 --- apiVersion: apps/v1beta1 kind: Deployment metadata: name: nginx1-7-deployment spec: replicas: 2 template: metadata: labels: app: nginx1-7 spec: containers: - name: nginx image: nginx:1.7.9 ports: - containerPort: 80
apiVersion: v1 kind: Service metadata: name: my-nginx spec: ports: - port: 80 targetPort: 80 selector: app: nginx1-8 --- apiVersion: apps/v1beta1 kind: Deployment metadata: name: nginx1-8-deployment spec: replicas: 2 template: metadata: labels: app: nginx1-8 spec: containers: - name: nginx image: nginx:1.8 ports: - containerPort: 80
[root@node1 nginx_ingress]# kubectl create -f nginx1-7.yaml service "frontend" created deployment "nginx1-7-deployment" created [root@node1 nginx_ingress]# kubectl create -f nginx1-8.yaml service "my-nginx" created deployment "nginx1-8-deployment" created
(3)创建Ingress
假设这两个服务要暴露到集群外部。要创建一个ingress:
[root@node1 nginx_ingress]# vim test-ingress.yaml apiVersion: extensions/v1beta1 kind: Ingress metadata: name: test spec: rules: - host: n17.my.com http: paths: - backend: serviceName: nginx1-7 servicePort: 80 - host: n18.my.com http: paths: - backend: serviceName: nginx1-8 servicePort: 80
创建ingress:
[root@node1 nginx_ingress]# kubectl create -f test-ingress.yaml ingress "test" created [root@node1 nginx_ingress]# kubectl get ing NAME HOSTS ADDRESS PORTS AGE test n17.my.com,n18.my.com 80 52s
打开客户机的/etc/hosts,配置172.16.7.151和n17.my.com,n18.my.com的对应关系,然后在浏览器访问n17.my.com或n18.my.com就可以访问到对应的服务。
如果想修改访问规则,修改test-ingress.yaml,使用kubectl replace -f更新就可以了。
标签:upd 查看 running 运行 label 实现 tin 代理服务器 机器
原文地址:http://www.cnblogs.com/zhaojiankai/p/7896357.html