标签:openstack
Chapter 2 OpenStack基本环境设置
2.1 实验环境
这里使用虚拟机方式配置OpenStack架构:
首先物理主机安装的操作系统是CentOS6.5 x86_64,使用的虚拟化软件是VMware WorkStation 10
虚拟机网络设置如下:
在物理机上的虚拟网卡的信息如下:
vmnet1 Link encap:Ethernet HWaddr 00:50:56:C0:00:01 inet addr:10.0.0.1 Bcast:10.0.0.255 Mask:255.255.255.0 inet6 addr: fe80::250:56ff:fec0:1/64Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:712764 errors:0 dropped:0overruns:0 frame:0 TX packets:4453502 errors:0 dropped:0overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:0 (0.0 b) TX bytes:0 (0.0 b) vmnet2 Link encap:Ethernet HWaddr 00:50:56:C0:00:02 inet addr:10.0.1.1 Bcast:10.0.1.255 Mask:255.255.255.0 inet6 addr: fe80::250:56ff:fec0:2/64Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:11112 errors:0 dropped:0overruns:0 frame:0 TX packets:14 errors:0 dropped:0overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:0 (0.0 b) TX bytes:0 (0.0 b) vmnet8 Link encap:Ethernet HWaddr 00:50:56:C0:00:08 inet addr:203.0.113.1 Bcast:203.0.113.255 Mask:255.255.255.0 inet6 addr: fe80::250:56ff:fec0:8/64Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:207556 errors:0 dropped:0overruns:0 frame:0 TX packets:373 errors:0 dropped:0overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:0 (0.0 b) TX bytes:0 (0.0 b)
注意,vmnet8为NAT网络,用于与外部网络进行通信。
实验环境拓扑图如下:
2.2 (虚拟机)初始设置
2.2.1 网卡名称修改
由于安装OpenStack的Kilo版本,这里虚拟机选用的操作系统是CenOS7 x86_64。需要注意的是网卡的设置,在CentOS7中将使用命名空间的方式来管理网络接口名称,如果需要改为传统的管理方式,请进行下面的操作:
[root@localhost ~]# cd /etc/sysconfig/network-scripts/ [root@localhost ~]# mvifcfg-eno16777736 ifcfg-eth0 [root@localhost network-scripts]# viifcfg-eth0 TYPE=Ethernet BOOTPROTO=static DEVICE=eth0 ONBOOT=yes IPADDR=10.0.0.11 NETMASK=255.255.255.0 [root@localhost ~]# vi /etc/default/grub GRUB_CMDLINE_LINUX="rd.lvm.lv=vgsys/swaprd.lvm.lv=vgsys/root net.ifnames=0 biosdevname=0crashkernel=auto rhgb quiet" [root@localhost ~]# grub2-mkconfig -o/boot/grub2/grub.cfg [root@localhost ~]# reboot
由于没有ifcfg等网络管理工具,这里需要安装相应的软件包net-tools:
[root@localhost ~]# yum -y installnet-tools
2.2.2 修改主机名并关闭防火墙、SELinux
[root@localhost ~]# hostnamectlset-hostname controller [root@controller ~]# systemctl disablefirewalld [root@controller ~]# systemctl stopfirewalld [root@controller ~]# vi/etc/sysconfig/selinux SELINUX=disabled [root@controller ~]# reboot
2.3 节点网络设置
使用Neutron网络的示例架构要求:
一个控制节点:包括一个属于管理网络的网卡。注意,这里的实际环境将为控制节点多配置一个属于NAT网段的网卡,用于连接外网,将OpenStack所需要的所有软件包制作成软件源,通过HTTP方式从控制节点进行发布,稍后介绍配置过程
一个网络节点:包括一个属于管理网络的网卡、一个用于(与计算节点进行)隧道通信的网卡、一个连接外网的网卡
至少一个计算节点(实验环境使用了两台):博客一个素颜管理网络的网卡、一个用于(与网络节点进行)隧道通信的网卡
2.3.1 配置各节点网络接口
这里以控制节点为例:
[root@controller ~]# cat/etc/sysconfig/network-scripts/ifcfg-eth0 TYPE=Ethernet BOOTPROTO=static DEVICE=eth0 ONBOOT=yes IPADDR=10.0.0.11 NETMASK=255.255.255.0 [root@controller ~]# cat/etc/sysconfig/network-scripts/ifcfg-eth1 TYPE=Ethernet BOOTPROTO=static DEVICE=eth1 ONBOOT=yes IPADDR=203.0.113.11 NETMASK=255.255.255.0 GATEWAY=203.0.113.2 DNS1=203.0.113.2
并设置外网连通性:
[root@controller ~]# ping -c 4openstack.org
PING openstack.org (162.242.140.107)56(84) bytes of data.
64 bytes from 162.242.140.107:icmp_seq=1 ttl=128 time=285 ms
64 bytes from 162.242.140.107:icmp_seq=2 ttl=128 time=286 ms
64 bytes from 162.242.140.107:icmp_seq=3 ttl=128 time=291 ms
64 bytes from 162.242.140.107:icmp_seq=4 ttl=128 time=296 ms
--- openstack.org ping statistics ---
4 packets transmitted, 4 received, 0%packet loss, time 3003ms
rtt min/avg/max/mdev =285.180/290.095/296.684/4.551 ms
网络节点和计算节点配置方式相同,配置完毕后可以对每个节点都进行ping测试。
2.3.2 添加主机名解析
在控制节点上设置/etc/hosts文件:
[root@controller ~]# cat /etc/hosts
10.0.0.11 controller
10.0.0.21 network1
10.0.0.31 compute1
10.0.0.32 compute2
将其复制到其他节点中,如果后面有新的服务器加入到OpenStack环境,加到/etc/hosts即可,当然也可以通过DNS方式对主机名称进行管理,由于环境机器需求不多,所以暂时不考虑。
2.4 创建repo源
首先在控制节点上编辑自定义的网络repo源:
[root@controller ~]# vi/etc/yum.repos.d/all-packages-source.repo
[all-packages-source]
name=all-packages-source
baseurl=http://10.0.0.11/all-packages-source
enabled=1
gpgcheck=0
将OpenStack所需要所有软件包下载到/all-packages-source目录中,然后安装HTTP服务将目录发布出去:
[root@controller ~]# yum -y installhttp://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-5.noarch.rpm
[root@controller ~]# yum -y installhttp://rdo.fedorapeople.org/openstack-kilo/rdo-release-kilo.rpm
[root@controller ~]# wget -P \
/etc/yum.repos.dhttp://download.gluster.org/pub/gluster/glusterfs/LATEST/CentOS/glusterfs-epel.repo
[root@controller ~]# mkdir/all-packages-source
[root@controller ~]# yum -y install Pakcage_Name --downloadonly--downloaddir=/all-packages-source
[root@controller ~]# createrepo/all-packages-source/
[root@controller ~]# yum -y installhttp
[root@controller ~]# ln -s/all-packages-source/ /var/www/html/
[root@controller ~]# systemctl starthttpd
[root@controller ~]# systemctl enablehttpd
[root@controller ~]# yum clean all;yum repolist
[root@controller ~]# yum repolist
Loaded plugins: fastestmirror
Loading mirror speeds from cachedhostfile
* base: centos.ustc.edu.cn
* epel: mirror01.idc.hinet.net
* extras: centos.ustc.edu.cn
* updates: centos.ustc.edu.cn
repo id reponame status
all-packages-source all-packages-source 458
base/7/x86_64 CentOS-7 - Base 8,652
epel/x86_64 ExtraPackages for Enterprise Linux 7 - x86_64 8,457
extras/7/x86_64 CentOS-7- Extras 180
glusterfs-epel/7/x86_64 GlusterFS is a clustered file-systemcapable of s 14
glusterfs-noarch-epel/7 GlusterFS is a clustered file-systemcapable of s 2
openstack-kilo OpenStackKilo Repository 823
updates/7/x86_64 CentOS-7 - Updates 1,225
repolist: 19,811
注:由于软件包较多,这里就不一一列出,查看官方文档查看每个组建所需要的软件包。
在其他节点上删除原有的repo源,从控制节点上复制all-packages-source.repo源文件并刷新,这里以网络节点为例:
[root@network1 ~]# rm -rf/etc/yum.repos.d/*
[root@network1 ~]# scp 10.0.0.11:/etc/yum.repos.d/all-packages-source.repo/etc/yum.repos.d/
[root@network1 ~]# yum clean all; yumrepolist
[root@network1 ~]# yum clean all; yumrepolist
...
repo id reponame status
all-packages-source all-packages-source 458
repolist: 458
2.5 网络时间服务(NTP)设置
2.5.1 在控制节点上配置NTP服务端
设置10.0.0.0/24网段可以对其进行时间同步:
[root@controller ~]# yum -y installntp
[root@controller ~]# vi /etc/ntp.conf
...
restrict 10.0.0.0 mask 255.255.255.0nomodify notrap
[root@controller ~]# systemctl startntpd
[root@controller ~]# systemctl enablentpd
可以通过ntpq -p命令查看与上层服务器时间是否同步。
2.5.2 在其他节点上配置NTP客户端
以网络节点为例:
[root@network1 ~]# yum -y install ntp
[root@network1 ~]# vi /etc/ntp.conf
server 10.0.0.11 iburst
注意,这里清除了其他上层NTP服务器。
2.6 SQL数据库
OpenStack很多服务通过SQL数据库来存储信息。这里使用MariaDB数据库,当然OpenStack服务也支持其他数据库服务,例如MySQL、PostgreSQL。
2.6.1 在控制节点上配置数据库服务端
1. 安装配置MariaDB
[root@controller ~]# yum -y installmariadb mariadb-server MySQL-python
[mysqld]
...
bind-address = 10.0.0.11
default-storage-engine = innodb
innodb_file_per_table
collation-server = utf8_general_ci
init-connect = ‘SET NAMES utf8‘
character-set-server = utf8
2. 完成安装
启动mariadb服务并设置为开机自启:
[root@controller ~]# systemctl startmariadb
[root@controller ~]# systemctl enablemariadb
加固数据库服务安全并设置数据库管理员root的密码:
[root@controller ~]#mysql_secure_installation
Set root password? [Y/n] Y
Remove anonymous users? [Y/n] Y
Disallow root login remotely? [Y/n] Y
Remove test database and access to it?[Y/n] Y
Reload privilege tables now? [Y/n] Y
注意,一定要移除数据空用户和空连接地址,否则在导入OpenStack各服务数据表时会报错。
2.7 消息队列服务(Message queue)
OpenStack通过消息队列服务来协调各服务之间的操作和状态信息。本示例将消息队列服务安装在控制节点上,OpenStack所支持的消息队列服务包括RabbitMQ、Qpid和ZeroMQ。这里将使用RabbiMQ作为消息队列服务。
2.7.1 安装和配置消息队列服务
[root@controller ~]# yum -y installrabbitmq-server
[root@controller ~]# systemctl startrabbitmq-server
[root@controller ~]# systemctl enablerabbitmq-server
[root@controller ~]# rabbitmqctladd_user openstack iforgot
[root@controller ~]# rabbitmqctlset_permissions openstack ".*" ".*" ".*"
本文出自 “技术宅” 博客,请务必保留此出处http://8497595.blog.51cto.com/8487595/1686708
标签:openstack
原文地址:http://8497595.blog.51cto.com/8487595/1686708