码迷,mamicode.com
首页 > 其他好文 > 详细

KVM的基础功能(网络、内存、cpu、存储的配置)

时间:2017-04-04 23:57:56      阅读:753      评论:0      收藏:0      [点我收藏+]

标签:kvm基础功能

KVM的基础功能(网络、内存、cpu、存储的配置)


cpu的配置


1)查看cpu插槽数量

[root@kvm ~]# cat /proc/cpuinfo |grep "physical id" |wc -l

24



2)查看cpu核心数量

[root@kvm ~]# cat /proc/cpuinfo |grep "core id"| wc -l

24



3)查看cpu的模型

[root@kvm ~]# cat /proc/cpuinfo |grep model

model      : 62

model name : Intel(R) Xeon(R) CPU E5-2630 v2 @ 2.60GHz

model      : 62

model name : Intel(R) Xeon(R) CPU E5-2630 v2 @ 2.60GHz

model      : 62

model name : Intel(R) Xeon(R) CPU E5-2630 v2 @ 2.60GHz

model      : 62


4)设置CPU的个数

[root@kvm ~]# virsh shutdown vm1  #先关闭vm


[root@kvm ~]# vi /etc/libvirt/qemu/vm1.xml  #修改xml配置文件

  <vcpu placement=‘static‘>10</vcpu>


[root@kvm ~]# systemctl restart libvirtd #重启服务

[root@kvm ~]# virsh start vm1   #启动vm


[root@vm1 ~]# cat /proc/cpuinfo |grep "core id"|wc -l  #查看cpu核心数量

10



5)设置CPU模型

ps:虚拟机的CPU model可以通过配置文件定义

 

         custom模式

可以根据需求自定义CPU的model

xml配置文件如下:

<cpu mode=’custom’ match=’exact’>

    <model fallback=’allow’>kvm64</model>

  .  .  .

  .  .  .

<feature policy=’require’ name=’monitor’/>

  </cpu>

 

         host-model模式

根据物理CPU的特性,选择一个最靠近其特性的标准CPU型号。CPU默认的模型就是host-model模式

xml配置文件如下:

<cpu mode=’host-model’/>

 

         host-passthrough模式

直接将物理CPU暴露给虚拟机使用,在虚拟机上完全可以看到的就是物理CPU的型号,一般用于嵌套虚拟化,让虚拟机的CPU支持虚拟化技术,这种模型有一个弊端,就是当要进行kvm迁移的时候,被迁移机器的物理特性要和迁移机器的一样。

xml配置文件如下:

<cpu mode=’host-passthrough’/>

 

 

host-passthrough模式实验

 

[root@kvm ~]# virsh shutdown vm1       #先关闭vm

 

[root@kvm ~]# vi /etc/libvirt/qemu/vm1.xml   #修改vm的xml配置文件

<cpumode=‘host-passthrough‘>     #把cpu的model改成host-passthrough

 

[root@kvm ~]# systemctl restart libvirtd     #重启libvirtd服务

 

[root@kvm ~]# virsh start vm1      #启动vm

 

[root@vm1 ~]# cat /proc/cpuinfo |grep model     #查看vm的cpu模型

model      : 62

model name : Intel(R) Xeon(R) CPU E5-2630 v2 @ 2.60GHz

model      : 62

model name : Intel(R) Xeon(R) CPU E5-2630 v2 @ 2.60GHz

 


内存的配置

 

1)设置内存大小

[root@vm1 ~]# free –h     #查看当前的内存大小

total    used     free   shared   buff/cache  available

Mem:   992M    96M    779M    6.6M      116M   767M

 

[root@kvm ~]# virsh shutdown vm1     #关闭vm

 

[root@kvm ~]# vi /etc/libvirt/qemu/vm1.xml    #修改vm的xml文件

  <memoryunit=‘KiB‘>1048576</memory>  

  <currentMemoryunit=‘KiB‘>716800</currentMemory>    #更改内存大小

 

[root@kvm ~]# systemctl restart libvirtd     #重启libvirtd服务

 

[root@kvm ~]# virsh start vm1   #启动vm

 

[root@vm1 ~]# free –h      #查看当前vm的内存大小

   total     used   free      shared buff/cache   available

Mem:  668M     71M   501M         6M       96M    484M

 

2)内存限制

ps:只有当内存竞争发生时,内存限制才会生效。

 

命令行格式为:

virsh memtune virtual_machine --parameter size

  [parameter]:

1.  hard_limit:虚拟机可以使用的最大内存,单位为kib

2.  soft_limit:竞争时的内存,单位为kib

3.  swap_hard_limit,最大内存加swap

4.  min_guarantee:最低保证给虚拟机使用的内存,单位为kib

 

memtune生效方式有3种

--config:写到配置文件中,下次重启虚拟机进程生效

--live:影响正在运行的虚拟机,虚拟机进程停止后,效果消失,这是默认的方式

--current:影响停止和正在运行的虚拟机,如果虚拟机运行,虚拟机进程停止后,效果消失。

 

应用示例:

         限制虚拟机最大使用10g内存,写到配置文件中,重启生效

memtune virthost --hard-limit 10488320 --config

         限制虚拟机竞争时为7g内存

memtune virthost --soft-limit 7340032 --config

         限制虚拟机最大内存加可以使用的宿主机的swap不超过10g

memtune virthost--swap-hard-limit 10488320 --config

         保证虚拟机最少可以使用4g内存

memtune virthost--min-guarantee 4194304 --config

 

xml配置文件示例:

  <memoryunit=‘KiB‘>1048576</memory>

  <currentMemoryunit=‘KiB‘>1048576</currentMemory>

<memtune>

   <hard_limit unit=’KiB’>9437184</hard_limit>

   <soft_limit unit=’KiB’>7340032</soft_limit>

 

3)内存气球

KVM支持内存气球技术,允许不关闭虚拟机,实现动态调整内存大小

[root@vm1 ~]# lsmod |grep virio_balloon   #需要加载virio_balloon驱动

virtio_balloon         13664 0

virtio_ring            21524  5 virtio_blk,virtio_net,virtio_pci,virtio_balloon,virtio_console

virtio                15008  5 virtio_blk,virtio_net,virtio_pci,virtio_balloon,virtio_console

 

查看内存气球空间

[root@kvm ~]# virsh qemu-monitor-command vm1 --hmp --cmd info balloon

balloon: actual=1024

 

调整内存气球空间

[root@kvm ~]# virsh qemu-monitor-command vm1 --hmp --cmd balloon 800

[root@kvm ~]# virsh qemu-monitor-command vm1 --hmp --cmd info balloon

balloon: actual=800

 

4)内存共享

KVM有着内存共享的强大功能,内存共享通过一项名为内核同页合并(Kernel Samp-page Merging,KSM)的功能来实现。KSM扫描每个虚拟机的内存,如果虚拟机用于相同的内存页面,KSM将这些页面合并到一个在虚拟机之间共享的页面,仅存储一个副本。可以提供内存利用率。要在linux下实现内存合并,只需要启动KSM,ksmtuned服务

[root@kvm ~]# systemctl status ksm

● ksm.service - KernelSamepage Merging

   Loaded: loaded(/usr/lib/systemd/system/ksm.service; enabled; vendor preset: enabled)

   Active: active (exited) since Sat 2017-04-4 18:25:32 CST;1 day 2h ago

 

 [root@kvm ~]# systemctl status ksmtuned

● ksmtuned.service -Kernel Samepage Merging (KSM) Tuning Daemon

   Loaded: loaded(/usr/lib/systemd/system/ksmtuned.service; enabled; vendor preset: enabled)

   Active: active (running) since Sat 2017-04-4 18:25:32CST; 1 day 2h ago

 

创建6个内存4G的虚拟机

[root@kvm ~]# qemu-img create -f qcow2 /var/lib/libvirt/images/vm1.qcow2 20G

[root@kvm ~]# virt-install --cdrom=/opt/iso/CentOS-7.2-x86_64-DVD.iso --vcpu=2 --ram=4096 --network bridge=virbr0 --disk path=/var/lib/libvirt/images/vm1.qcow2 --graphics spice,listen=0.0.0.0  --name=vm1

vm2-------vm5略

 

[root@vm1 ~]# virsh list

 Id   Name                          State

----------------------------------------------------

 1    vm1                            running

2     vm2                            running

3     vm3                            running

4     vm4                            running

5     vm5                            running

6     vm6                            running

我的物理机是16G的内存,由于我启用了内存共享的功能,所有可以创建6个内存为4G的虚拟机。



存储的配置

 

1KVM的存储模式:宿主机提供一个存储池,从存储池里面划分存储卷给虚拟机使用。

技术分享

 

2)创建存储池(基于LVM)

[root@kvm ~]# pvcreate /dev/sdb     #把/dev/sdb做成pv

  Physical volume "/dev/sdb"successfully created

 

[root@kvm ~]# vgcreate kvm-storage /dev/sdb    #创建vg

  Volume group "kvm-storage"successfully created

 

[root@kvm ~]# lvcreate -L 18G -n kvm-data /dev/kvm-storage    #创建lv

  Logical volume "kvm-data" created.

 

[root@kvm ~]# lvs       #查看创建的lv                           

  kvm-data kvm-storage -wi-a----- 18.00g

 

[root@kvm ~]# vi kvm-data.xml    #编辑存储池xml文件

<pool type=‘logical‘>

  <name>kvm-data</name>

  <source>

    <devicepath=‘/dev/kvm-storage/kvm-data‘/> 

    <name>kvm-storage</name>

    <format type=‘lvm2‘/>

  </source>

  <target>

    <path>/dev/kvm-storage</path>

    <permissions>

      <mode>0755</mode>

      <owner>-1</owner>

      <group>-1</group>

    </permissions>

  </target>

</pool>

 

[root@kvm ~]# virsh pool-define kvm-data.xml   #通过xml文件定义存储池

Pool kvm-data defined fromkvm-data.xml

 

[root@kvm ~]# virsh pool-start kvm-data     #启动存储池

Pool kvm-data started

 

[root@kvm ~]# virsh pool-autostart kvm-data   #设置存储池自动启动

Pool kvm-data marked as autostarted

 

[root@kvm ~]# virsh pool-info kvm-data     #查看存储池的信息

Name:           kvm-data

UUID:           4c453c8f-8ec9-4af9-b377-19ed3d274ee4

State:          running

Persistent:     yes

Autostart:      yes

Capacity:       20.00 GiB

Allocation:     18.00 GiB

Available:      2.00 GiB

 

3)从存储池划分存储卷给虚拟机使用

[root@kvm ~]# virsh shutdown vm1     #关闭vm1

 

[root@kvm ~]# vim /etc/libvirt/qemu/vm1.xml    #编辑vm1的xml文件

    <disk type=‘block‘ device=‘disk‘>

      <driver name=‘qemu‘ type=‘raw‘cache=‘none‘ io=‘native‘/>

      <sourcedev=‘/dev/kvm-storage/kvm-data‘/>

      <target dev=‘vdb‘ bus=‘virtio‘/>  

  </disk>

 

[root@kvm ~]# systemctl restart libvirtd

[root@kvm ~]# virsh start vm1

 

[root@vm1 ~]# lsblk     #VM上验证

NAME            MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT

vdb            252:16 0   18G  0 disk 



网络的配置


虚拟机上外网的方式有两种:一种通过桥接方式,一种通过nat方式



通过桥接方式

 

下载软件包

[root@kvm ~]# yum -y install bridge-utils 

 

编辑网桥的配置文件

[root@kvm network-scripts]# cat ifcfg-brex

DEVICE=brex          #指定网桥为brex

BOOTPROTO=static     #IP获取方式为静态

ONBOOT=yes           #启用该设备

TYPE=bridge          #指定类型为网桥

IPADDR=172.16.1.111  #网桥的IP地址

PREFIX=24            #网桥的掩码

GATEWAY=172.16.1.1   #网桥的网关

DNS1=202.96.128.133  #网桥的首选DNS

DNS2=202.96.128.166  #网桥的备用DNS

STP=yes              #启用STP功能

 

编辑要绑定到桥的物理网卡的配置文件

[root@kvm network-scripts]# cat ifcfg-enp10s0 

DEVICE=enp10s0                              

IPADDR=172.16.1.111

PREFIX=24

GATEWAY=172.16.1.1

DNS1=202.96.128.133

DNS2=202.96.128.166

ONBOOT=yes

NM_CONTROLLD=yes

BRIDGE=brex       #指定绑定到桥brex

 

重启网络

[root@kvm network-scripts]# systemctl restart network 


查看网络状态

[root@kvm~]# ip add show 

4:enp10s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master brex state UP qlen 1000     #网卡enp10s0绑定到网桥brex

    link/ether 70:e2:84:05:fa:30 brdff:ff:ff:ff:ff:ff

32:brex: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP      #网桥brex的状态为UP

    link/ether 70:e2:84:05:fa:30 brdff:ff:ff:ff:ff:ff

    inet 172.16.1.111/24 brd 172.16.1.255 scopeglobal brex

       valid_lft forever preferred_lft forever

    inet6 fe80::72e2:84ff:fe05:fa30/64 scopelink

       valid_lft forever preferred_lft forever

 

编辑虚拟机的XML文件

[root@kvm ~]# vi /etc/libvirt/qemu/vm1.xml

    <interface type=‘bridge‘>     #接口类型为桥

      <source bridge=‘brex‘/>     #指定和宿主机的网桥brex桥接

      <model type=‘virtio‘/>

</interface>

 

查看网桥的状态

[root@kvm~]# brctl show  

bridgename    bridge id     STP enabled   interfaces

brex        8000.70e28405fa30    yes       enp10s0

                                   vnet0

virbr0       8000.5254000f5751     yes      virbr0-nic

 

在VM1上验证

[root@vm1 ~]# ip add show

1: lo:<LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN

    link/loopback 00:00:00:00:00:00 brd00:00:00:00:00:00

    inet 127.0.0.1/8 scope host lo

       valid_lft forever preferred_lft forever

    inet6 ::1/128 scope host

       valid_lft forever preferred_lft forever

2:eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast stateUP qlen 1000

    link/ether 52:54:00:de:d4:61 brdff:ff:ff:ff:ff:ff

    inet 172.16.1.181/24brd 172.16.1.255 scope global dynamic eth0

       valid_lft 7123sec preferred_lft 7123sec

    inet6 fe80::5054:ff:fede:d461/64 scope link

       valid_lft forever preferred_lft forever

#从物理网络的DHCP服务器获取到IP地址

 

ping外网测试

[root@vm1 ~]# ping www.baidu.com 

PINGwww.a.shifen.com (14.215.177.37) 56(84) bytes of data.

64bytes from 14.215.177.37: icmp_seq=1 ttl=53 time=11.8 ms

64bytes from 14.215.177.37: icmp_seq=2 ttl=53 time=11.4 ms


通过nat方式



下载openvswitch软件yum源

[root@kvm ~]# yum -y install centos-release-openstack-newton 

 

安装openvswitch

[root@kvm ~]# yum -y install *openvswitch* 

 

编辑nat桥的配置文件

[root@kvm network-scripts]#cat ifcfg-natex  

DEVICE=natex         #指定设备为natex

BOOTPROTO=static     #IP获取方式为静态

ONBOOT=yes           #开机启用该设备

TYPE=OVSBridge       #类型为OVS桥

DEVICETYPE=ovs       #设备类型为ovs

IPADDR=192.168.133.80      #桥的IP地址

NETMASK=255.255.255.0      #桥的掩码

GATEWAY=192.168.133.1      #桥的网关

 

编辑要绑定到桥的物理网卡的配置文件

[root@kvm network-scripts]# cat ifcfg-enp10s0

DEVICE=enp10s0                       

ONBOOT=yes

TYPE=OVSPort

DEVICETYPE=ovs      #设备类型为ovs

OVS_BRIDGE=natex     #指定要绑定到的网桥为natex

 

编辑VM的xml文件,桥接到物理网卡

[root@kvm ~]# vi /etc/libvirt/qemu/vm1.xml

    <interface type=‘bridge‘>      #指定接口类型

      <source bridge=‘natex‘/>     #指定源设备

      <virtualport type=‘openvswitch‘/>   #指定虚拟接口类型

     <model type=‘e1000‘/>        #指定接口为千兆接口

</interface>

 

 

查看宿主机网络状态

[root@kvm ~]# ip add show

4: enp10s0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500qdisc pfifo_fast master ovs-system state UP qlen 1000

    link/ether70:e2:84:05:fa:30 brd ff:ff:ff:ff:ff:ff

45:natex: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue stateUNKNOWN

    link/ether 70:e2:84:05:fa:30 brdff:ff:ff:ff:ff:ff

    inet 192.168.133.80/24 brd 192.168.133.255scope global natex

       valid_lft forever preferred_lft forever

    inet6 fe80::9879:f1ff:fe8f:7644/64 scopelink

       valid_lft forever preferred_lft forever

 

查看ovs桥

[root@kvm network-scripts]# ovs-vsctl show

521d2c60-16ce-49b2-9e76-c28e0e6ea38b

    Bridge natex

        Port "enp10s0"

            Interface "enp10s0"

        Port "vnet0"

            Interface "vnet0"

        Port natex

            Interface natex

                type: internal

ovs_version:"2.5.0"

 

虚拟机上验证

[root@vm1 ~]# ip add show

2:ens3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast stateUP qlen 1000

    link/ether 52:54:00:cd:fc:0b brdff:ff:ff:ff:ff:ff

    inet 172.16.1.193/24brd 172.16.1.255 scope global dynamic ens3

       valid_lft 6375sec preferred_lft 6375sec

    inet6 fe80::5054:ff:fecd:fc0b/64 scope link

       valid_lft forever preferred_lft forever

#网卡从物理网络的DHCP服务器获取到IP地址

 

ping外网测试

[root@vm1 ~]# ping g.cn 

PINGg.cn (203.208.40.52) 56(84) bytes of data.

64bytes from 203.208.40.52: icmp_seq=1 ttl=52 time=33.3 ms

64 bytesfrom 203.208.40.52: icmp_seq=2 ttl=52 time=32.3 ms


参考文献:

   《KVM虚拟化技术 实战与原理解析》 任永杰,单海涛  机械工业出版社


如有纰漏,欢迎指正。














本文出自 “开源精神 源于分享” 博客,请务必保留此出处http://lidaxia.blog.51cto.com/11588738/1912892

KVM的基础功能(网络、内存、cpu、存储的配置)

标签:kvm基础功能

原文地址:http://lidaxia.blog.51cto.com/11588738/1912892

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!