标签:style blog http ar io color os 使用 sp
kvm性能优化,主要集中在cpu、内存、磁盘、网络,4个方面,当然对于这里面的优化,也是要分场景的,不同的场景其优化方向也是不同的,下面具体聊聊这4个方面的优化细节。
在介绍cpu之前,必须要讲清楚numa的概念,建议先参考如下两篇文章
查看cpu信息脚本:
#!/bin/bash # Simple print cpu topology # Author: kodango function get_nr_processor() { grep '^processor' /proc/cpuinfo | wc -l } function get_nr_socket() { grep 'physical id' /proc/cpuinfo | awk -F: '{ print $2 | "sort -un"}' | wc -l } function get_nr_siblings() { grep 'siblings' /proc/cpuinfo | awk -F: '{ print $2 | "sort -un"}' } function get_nr_cores_of_socket() { grep 'cpu cores' /proc/cpuinfo | awk -F: '{ print $2 | "sort -un"}' } echo '===== CPU Topology Table =====' echo echo '+--------------+---------+-----------+' echo '| Processor ID | Core ID | Socket ID |' echo '+--------------+---------+-----------+' while read line; do if [ -z "$line" ]; then printf '| %-12s | %-7s | %-9s |\n' $p_id $c_id $s_id echo '+--------------+---------+-----------+' continue fi if echo "$line" | grep -q "^processor"; then p_id=`echo "$line" | awk -F: '{print $2}' | tr -d ' '` fi if echo "$line" | grep -q "^core id"; then c_id=`echo "$line" | awk -F: '{print $2}' | tr -d ' '` fi if echo "$line" | grep -q "^physical id"; then s_id=`echo "$line" | awk -F: '{print $2}' | tr -d ' '` fi done < /proc/cpuinfo echo awk -F: '{ if ($1 ~ /processor/) { gsub(/ /,"",$2); p_id=$2; } else if ($1 ~ /physical id/){ gsub(/ /,"",$2); s_id=$2; arr[s_id]=arr[s_id] " " p_id } } END{ for (i in arr) printf "Socket %s:%s\n", i, arr[i]; }' /proc/cpuinfo echo echo '===== CPU Info Summary =====' echo nr_processor=`get_nr_processor` echo "Logical processors: $nr_processor" nr_socket=`get_nr_socket` echo "Physical socket: $nr_socket" nr_siblings=`get_nr_siblings` echo "Siblings in one socket: $nr_siblings" nr_cores=`get_nr_cores_of_socket` echo "Cores in one socket: $nr_cores" let nr_cores*=nr_socket echo "Cores in total: $nr_cores" if [ "$nr_cores" = "$nr_processor" ]; then echo "Hyper-Threading: off" else echo "Hyper-Threading: on" fi echo echo '===== END ====='
针对kvm的优化,一般情况,都是通过pin,将vm上的cpu绑定到某一个node上,让其共享l3-cache,优先选择node上的内存,bind方法可以通过virt-manage processor里面的pinning动态绑定。这个绑定是实时生效的。
由于没有下载到speccpu2005,所以写了个大量消费cpu和内存的程序,来检验绑定cpu所带来的性能提升,程序如下:
#include <stdio.h> #include <pthread.h> #include <stdlib.h> #define BUF_SIZE 512*1024*1024 #define MAX 512*1024 #define COUNT 16*1024*1024 char * buf_1 = NULL; char * buf_2 = NULL; void *pth_1(void *data) { char * p1 = NULL; char * p2 = NULL; int value1 = 0; int value2 = 0; int value_total = 0; int i = 0; int j = 0; for (i = 0; i <=COUNT; i++) { value1 = rand() % (MAX + 1); value2 = rand() % (MAX + 1); p1 = buf_1 + value1*1024; p2 = buf_2 + value2*1024; for (j = 0; j < 1024; j++) { value_total += p1[j]; value_total += p2[j]; } } return NULL; } void *pth_2(void *data) { char * p1 = NULL; char * p2 = NULL; int value1 = 0; int value2 = 0; int value_total = 0; int i = 0; int j = 0; for (i = 0; i <=COUNT; i++) { value1 = rand() % (MAX + 1); value2 = rand() % (MAX + 1); p1 = buf_1 + value1*1024; p2 = buf_2 + value2*1024; for (j = 0; j < 1024; j++) { value_total += p1[j]; value_total += p2[j]; } } return NULL; } int main(void) { buf_1 = (char *)calloc(1, BUF_SIZE); buf_2 = (char *)calloc(1, BUF_SIZE); memset(buf_1, 0, BUF_SIZE); memset(buf_2, 0, BUF_SIZE); pthread_t th_a, th_b; void *retval; pthread_create(&th_a, NULL, pth_1, 0); pthread_create(&th_b, NULL, pth_2, 0); pthread_join(th_a, &retval); pthread_join(th_b, &retval); return 0; }
8,9 real 1m53.999s user 3m34.377s sys 0m3.020s 10,12 real 1m25.706s user 2m49.497s sys 0m0.699s可以看出,绑定到同一个node上,比绑到不同node上其消耗时间小不少。测试过程中,也发现如果提供8、9、10、11的cpu,系统会在大部分时间选择8、10和9、11,所以猜测,kvm在cpu bind上,可能已经做了优化,会尽可能的往同一个node上绑定。
这里需要注意的一点是,通过virt-manage pin cpu,仅仅进行cpu bind,会共享l3-cache,并没有限制一定用某一个node上的内存,所以仍然会出现跨node使用内存的情况。
优化项包括EPT、透明大页、内存碎片整理、ksm,下面一个一个来介绍
针对内存的使用,存在逻辑地址和物理地址的转换,这个转换时通过page table来进行的,并且转换过程由cpu vmm硬件加速,速度是很块的。
但是引入vm之后,vm vaddr----->vm padddr--------->host paddr,首先vm需要进行逻辑地址和物理地址的转换,但是vm的物理地址还是host机的逻辑地址,所以需要再进行一次逻辑地址到物理地址的转换,所以这个过程有2次地址转换,效率非常低。
幸亏intel提供了EPT技术,将两次地址转换变成了一次。这个EPT技术是在bios中,随着VT技术开启一起开启的。
逻辑地址向物理地址的转换,在做转换时,cpu保持一个翻译后备缓冲器TLB,用来缓存转换结果,而TLB容量很小,所以如果page很小,TLB很容易就充满,这样就很容易导致cache miss,相反page变大,TLB需要保存的缓存项就变少,减少cache miss。
透明大页的开启:echo always > /sys/kernel/mm/transparent_hugepage/enabled
内存碎片整理的开启:echo always> /sys/kernel/mm/transparent_hugepage/defrag
文章http://blog.chinaunix.net/uid-20794164-id-3601786.html,介绍的很详细,简单理解就是可以将内容相同的内存合并,节省内存的使用,当然这个过程会有性能损耗,这个需要考虑使用场景,如果不注重vm性能,而注重host内存使用率,可以考虑开启,反之则关闭,在/etc/init.d/下,服务名称为ksm和ksmtuned。
磁盘的优化包括:virtio-blk、缓存模式、aio、块设备io调度器
半虚拟化io设备,针对cpu和内存,kvm全是全虚拟化设备,而针对磁盘和网络,则出现了半虚拟化io设备,目的是标准化guest和host之间数据交换接口,减少交换流程,减少内存拷贝,提升vm io效率,可以在libvirt xml中设置,disk中加入<target dev=‘vda‘ bus=‘virtio‘/>
从vm写磁盘,有3个缓冲区,guest fs page cache、Brk Driver writeback cache、Host FS page cache,在host上的设置,无法改变guest fs page cache,但是可以改变后来个cache,缓存模式有如下5种,当采用Host FS page cache,会有一个写同步,会实时将cache中的数据flush到磁盘上,当然这样做比较安全,不会丢失数据。具体模式见下图。
第1和第5种,很少会有人使用,都比较极端,中间3种,其性能比较如下:
可以看出writeback mode在mail server这种,小文件 高io的服务器其性能是很差的,none模式大部分情况要比writethrough性能稍好一点,选择none。
启用方式在libvirt xml disk中加入<driver name=‘qemu‘ type=‘qcow2‘ cache=‘none‘/>
异步读写,分别包括Native aio: kernel AIO 和 threaded aio: user space AIO emulated by posix thread workers,内核方式要比用户态的方式性能稍好一点,所以一般情况都选择native,开启方式<driver name=‘qemu‘ type=‘qcow2‘ cache=‘none‘ aio=‘native‘/>
cfq:perprocess IO queue,较好公平性,较低aggregate throughput
deadline:per-device IO queue,较好实时性,较好aggregate throughput,不够公平,容易出现VM starvation
这个目前笔者还没有做过测试,但是查看网易和美团云的方案,其都将其设置为cfq。
开启方式:echo cfq > /sys/block/sdb/queue/scheduler
优化项包括virtio、vhost、macvtap、vepa、SRIOV 网卡,下面有几篇文章写的非常好
http://www.openstack.cn/p2118.html
http://www.ibm.com/developerworks/cn/linux/1312_xiawc_linuxvirtnet/
http://xiaoli110.blog.51cto.com/1724/1558984
virtio:更改虚拟网卡的类型,由全虚拟化网卡e1000、rtl8139,转变成半虚拟化网卡virtio,virtio需要qemu和vm内核virtio驱动的支持
vhost_net:vhost_net将virtiobackend处理程序由user space转入kernelspace,将减少两个空间内存拷贝和cpu的切换,降低延时和提高cpu使用率
macvtap:代替传统的tap+bridge,有4中模式,bridge、vepa、private、passthrough
1, Bridge, 完成与 Bridge 设备类似功能,数据可以在属于同一个母设备的子设备间交换转发. 当前的Linux实现有一个缺陷,此模式下MACVTAP子设备无法和Linux Host通讯,即虚拟机无法和Host通讯,而使用传统的Bridge设备,通过给Bridge设置IP可以完成。但使用VEPA模式可以去除这一限制. macvtap的这种bridge模式等同于传统的tap+bridge的模式.
2, VEPA, 式是对802.1Qbg标准中的VEPA机制的部分软件实现,工作在此模式下的MACVTAP设备简单的将数据转发到母设备中,完成数据汇聚功能,通常需要外部交换机支持Hairpin模式才能正常工作。
3, Private, Private模式和VEPA模式类似,区别是子 MACVTAP之间相互隔离。
4, Passthrough, 可以配合直接使用SRIOV网卡, 内核的MACVLAN数据处理逻辑被跳过,硬件决定数据如何处理,从而释放了Host CPU资源。MACVTAP Passthrough 概念与PCI Passthrough概念不同,PCI Passthrough针对的是任意PCI设备,不一定是网络设备,目的是让Guest OS直接使用Host上的 PCI 硬件以提高效率。MACVTAP Passthrough仅仅针对 MACVTAP网络设备,目的是饶过内核里MACVTAP的部分软件处理过程,转而交给硬件处理。综上所述,对于一个
SRIOV 网络设备,可以用两种模式使用它:MACVTAP Passthrough 与 PCI Passthrough
PCIpass-through:直通,设备独享。
SO-IOV:优点是虚拟网卡的工作由hostcpu交给了物理网卡来实现,降低了hostcpu的使用率,缺点是,需要网卡、主板、hypervisor的支持。
这几种优化方案,其关系可以由下面这张图来表示。
总结来看网络虚拟化具有三个层次:
1, 用户可以零成本地使用 Linux 软件实现的 Bridge、VLAN、MACVTAP设备定制与现实世界类似的虚拟网络;
2, 也可以用非常低的成本按照802.1Qbg中的VEPA模型创建升级版的虚拟网络,引出虚拟机网络流量,减少Host服务器负载;
3, 当有支持 SRIOV 的网卡存在时,可以使用 Passthrough 技术近一步减少Host负载
总结:文章总共阐述了cpu、内存、磁盘、网络的性能优化方案,大部分都是通过kvm参数和系统内核参数的修改来实现。
标签:style blog http ar io color os 使用 sp
原文地址:http://blog.csdn.net/beginning1126/article/details/41983547