标签:openstac 配置 共享资源 serve ml2 访问权限 client 还需要 调试
Tungsten Fabric入门宝典系列文章,来自技术大牛倾囊相授的实践经验,由TF中文社区为您编译呈现,旨在帮助新手深入理解TF的运行、安装、集成、调试等全流程。如果您有相关经验或疑问,欢迎与我们互动,并与社区极客们进一步交流。更多TF技术文章,请点击【TF中文社区】公号底部按钮>学习>文章合集。
作者:Tatsuya Naganawa 译者:TF编译组
由于在内部使用MPLS-V P N,因此Tungsten Fabric中的virtual-network可以扩展到其它Tungsten Fabric集群。
也就是说,由于它们具有不同的数据库,因此需要在它们之间标记共享资源。
为此,我将描述几个bgp参数的用法。
由于Tungsten Fabric使用L3V P N进行VRF间的路由,因此,如果在VRF之间正确设置了route-target,则它可以对报文进行路由。
注意:如果指定了仅做l3转发,即使在内部VRF的转发中,也会使用L3V P N,因此在该设置中将不使用桥接(bridging)。
Tungsten Fabric还具有一些扩展的属性来传达安全组ID的内容。
由于此ID也可以手动配置,因此你可以为每个集群的安全组设置相同的ID,从而允许来自该前缀的流量。
注意:据我所知,无法从R5.1分支中的Tungsten Fabric Webui手动配置标签的ID,因此无法在集群之间使用fw-policy。此行为将来可能会更改。
在处理多个集群时,DNS是一个很重要的主题。
由于Tungsten Fabric具有类似于OpenStack的默认设置的vDNS实现,因此你可以解析集群中的vmname,并使这些名称可以在外部可用。
https://github.com/Juniper/contrail-controller/wiki/DNS-and-IPAM
Controller节点有一个contrail-named进程,用于响应外部DNS查询
因此,至少当使用OpenStack(或vCenter)作为编排器,并且不同的集群具有不同的域名时,它可以直接解析其它集群的名称。
在使用Kubernetes时,Tungsten Fabric将coredns用作名称解析的来源,而不是在其自己的vDNS。这些IP和域名可以在kubeadm设置中修改。
cluster0:
kubeadm init --pod-network-cidr=10.32.0.0/24 --service-cidr=10.96.0.0/24
cluster1:
kubeadm init --pod-network-cidr=10.32.1.0/24 --service-cidr=10.96.1.0/24 --service-dns-domain=cluster1.local
cluster1:
#cat /etc/sysconfig/kubelet
-KUBELET_EXTRA_ARGS=
+KUBELET_EXTRA_ARGS="--cluster-dns=10.96.1.10"
#systemctl restart kubelet
注意:在配置完成后,Tungsten Fabric设置也需要更改(在configmap env中进行设置)
cluster0:
KUBERNETES_POD_SUBNETS: 10.32.0.0/24
KUBERNETES_IP_FABRIC_SUBNETS: 10.64.0.0/24
KUBERNETES_SERVICE_SUBNETS: 10.96.0.0/24
cluster1:
KUBERNETES_POD_SUBNETS: 10.32.1.0/24
KUBERNETES_IP_FABRIC_SUBNETS: 10.64.1.0/24
KUBERNETES_SERVICE_SUBNETS: 10.96.1.0/24
设置好coredns后,它就可以解析其它集群的名称了(coredns IP需要泄漏到各自的VRF,因为这些IP必须是可访问的)
kubectl edit -n kube-system configmap coredns
cluster0:
### add these lines to resolve cluster1 names
cluster1.local:53 {
errors
cache 30
forward . 10.96.1.10
}
cluster1:
### add these lines to resolve cluster0 names
cluster.local:53 {
errors
cache 30
forward . 10.96.0.10
}
因此,即使你有几个单独的Tungsten Fabric集群,在它们之间缝合virtual-network也不太困难。
这样做的原因之一,是要节点数量超过了编排器当前支持的数量,但即使像Kubernetes、OpenStack、vCenter这样的编排器已经能支持大量的虚拟机管理程序。
如果流量是跨多个数据中心的,则需要在计划Tungsten Fabric安装时保持格外小心。
有两个选项:1.单集群;2.多集群。
单集群选项更简单而且容易管理——即便数据中心之间的RTT可能是一个问题,这是因为XMPP、RabbitMQ、Cassandra等多种流量都将通过controller(当前并不支持多数据中心的本地支持)
多集群方法将给操作带来更多的复杂性,因为集群都有各自不同的数据库,因此你需要手动设置一些参数,例如route-target或security-group id。
此外,在它们之间实现vMotion也将更加困难。
即便使用跨vCenter vMotion功能,由于新的vCenter和新的Tungsten Fabric集群将创建一个新的端口,因此它也将使用不同于原始端口的固定IP。
由于在数据中心之间vCenter需要150ms的RTT(我找不到KVM的相似值),因此尽管必须针对每种特定情况进行仔细规划,仍然有一个经验法则:单集群 < 150 msec RTT < 多集群,。
当计划安装单集群并且数据中心的数量为两个时,还需要注意一件事。
由于Tungsten Fabric中的Zookeeper / Cassandra当前使用Quorum一致性等级,因此当主站点关闭时,第二个站点将无法继续工作(Read和Write访问权限均不可用)。
https://github.com/Juniper/contrail-controller/blob/master/src/config/common/vnc_cassandra.py#L659
(使用config-api, schema-transformer, svc-monitor, device-manager)
解决此问题的一种可能选项是,将一致性级别更改为ONE / TWO / THREE,或者LOCAL_ONE / LOCAL_QUORUM,尽管它需要重写源代码。
由于Zookeeper没有这样的knob,所以我知道的唯一方法,是在主站点关闭后更新weight。
https://stackoverflow.com/questions/32189618/hierarchical-quorums-in-zookeeper
当数据中心的数量超过两个时,这将不再是一个问题。
Tungsten Fabric入门宝典系列文章——
Tungsten Fabric 架构解析系列文章——
第一篇:TF主要特点和用例
第二篇:TF怎么运作
第三篇:详解vRouter体系结构
第四篇:TF的服务链
第五篇:vRouter的部署选项
第六篇:TF如何收集、分析、部署?
第七篇:TF如何编排
第八篇:TF支持API一览
第九篇:TF如何连接到物理网络
第十篇:TF基于应用程序的安全策略
Tungsten Fabric入门宝典丨关于多集群和多数据中心
标签:openstac 配置 共享资源 serve ml2 访问权限 client 还需要 调试
原文地址:https://blog.51cto.com/14638699/2501564