标签:
在淘宝开源自己基于nginx打造的tegine服务器的时候,有这么一项特性引起了笔者的兴趣。“自动根据CPU数目设置进程个数和绑定CPU亲缘性”。当时笔者对CPU亲缘性没有任何概念,当时作者只是下意识的打开了google并输入CPU亲缘性(CPU Affinity)简单了做了个了解。
后来,在笔者参加实际工作以后,就碰到了这么两个问题。
问题一:如何在SMP的系统中,保证某个特定进程即使在其他进程都很忙的情况下都能够获得足够的CPU资源?解决的思路主要有以下两种:
问题二:通过每日监控数据,我们发现服务器的CPU使用率出现这样子的情况,除了CPU0,其他CPU的负载都很低。
我们选择了通过设置CPU亲缘性的方式进行优化,在完成相关优化后,我们的应用程序性能得到了一定的提高。(大致有10%的性能提升)
此次,笔者借着博文的机会将“CPU亲缘性”这一特性的学习过程整理下来,以备日后查验。注意,本文所提到的CPU亲缘性均基于Linux。
所谓CPU亲缘性可以分为两大类:软亲缘性和硬亲缘性。
Linux 内核进程调度器天生就具有被称为 CPU 软亲缘性(soft affinity) 的特性,这意味着进程通常不会在处理器之间频繁迁移。这种状态正是我们希望的,因为进程迁移的频率小就意味着产生的负载小。但不代表不会进行小范围的迁移。
CPU 硬亲缘性是指通过Linux提供的相关CPU亲缘性设置接口,显示的指定某个进程固定的某个处理器上运行。本文所提到的CPU亲缘性主要是指硬亲缘性。
目前主流的服务器配置都是SMP架构,在SMP的环境下,每个CPU本身自己会有缓存,缓存着进程使用的信息,而进程可能会被kernel调度到其他CPU上(即所谓的core migration),如此,CPU cache命中率就低了。设置CPU亲缘性,程序就会一直在指定的cpu运行,防止进程在多SMP的环境下的core migration,从而避免因切换带来的CPU的L1/L2 cache失效。从而进一步提高应用程序的性能。
我们有两种办法指定程序运行的CPU亲缘性。
利用glibc库中的sched_getaffinity接口,我们获取应用程序当前的cpu亲缘性,而通过sched_setaffinity接口则可以把应用程序绑定到固定的某个或某几cpu上运行。相关定义如下:
1 #include <sched.h> 2 3 4 void CPU_ZERO(cpu_set_t *set); 5 void CPU_CLR(int cpu, cpu_set_t *set); 6 void CPU_SET(int cpu, cpu_set_t *set); 7 int CPU_ISSET(int cpu, cpu_set_t *set); 8 9 int sched_getaffinity(pid_t pid, unsigned int cpusetsize, cpu_set_t *mask); 10 11 int sched_setaffinity(pid_t pid, unsigned int cpusetsize, cpu_set_t *mask);
其中的cpu_set_t结构体的具体定义:
1 /*/usr/include/bits/sched.h*/ 2 3 4 # define __CPU_SETSIZE 1024 5 # define __NCPUBITS (8 * sizeof (__cpu_mask)) 6 7 /* Type for array elements in ‘cpu_set‘. */ 8 typedef unsigned long int __cpu_mask; 9 10 typedef struct 11 { 12 __cpu_mask __bits[__CPU_SETSIZE / __NCPUBITS]; 13 } cpu_set_t;
可以看到其用每一bit位表示一个cpu的状态,最多可以表示1024个cpu的亲缘状态,这在目前来说足够用了.
在 Linux 内核中,所有的进程都有一个相关的数据结构,称为 task_struct
。这个结构非常重要,原因有很多;其中与 亲缘性(affinity)相关度最高的是 cpus_allowed
位掩码。这个位掩码由 n 位组成,与系统中的 n 个逻辑处理器一一对应。 具有 4 个物理 CPU 的系统可以有 4 位。如果这些 CPU 都启用了超线程,那么这个系统就有一个 8 位的位掩码。
如果为给定的进程设置了给定的位,那么这个进程就可以在相关的 CPU 上运行。因此,如果一个进程可以在任何 CPU 上运行,并且能够根据需要在处理器之间进行迁移,那么位掩码就全是 1。实际上,这就是 Linux 中进程的缺省状态。相关内核调度代码如下:
1 static inline 2 int select_task_rq(struct task_struct *p, int sd_flags, int wake_flags) 3 { 4 int cpu = p->sched_class->select_task_rq(p, sd_flags, wake_flags); 5 6 /* 7 * In order not to call set_task_cpu() on a blocking task we need 8 * to rely on ttwu() to place the task on a valid ->cpus_allowed 9 * cpu. 10 * 11 * Since this is common to all placement strategies, this lives here. 12 * 13 * [ this allows ->select_task() to simply return task_cpu(p) and 14 * not worry about this generic constraint ] 15 */ 16 if (unlikely(!cpumask_test_cpu(cpu, &p->cpus_allowed) || 17 !cpu_online(cpu))) 18 cpu = select_fallback_rq(task_cpu(p), p); 19 20 return cpu; 21 }
另外的几个宏CPU_CLR\CPU_ISSET\CPU_SET\CPU_ZERO定义也都定义在头文件/usr/include/bits/sched.h内:
1 /* Access functions for CPU masks. */ 2 # define __CPU_ZERO(cpusetp) 3 do { 4 unsigned int __i; 5 cpu_set_t *__arr = (cpusetp); 6 for (__i = 0; __i < sizeof (cpu_set_t) / sizeof (__cpu_mask); ++__i) 7 __arr->__bits[__i] = 0; 8 } while (0) 9 # define __CPU_SET(cpu, cpusetp) 10 ((cpusetp)->__bits[__CPUELT (cpu)] |= __CPUMASK (cpu)) 11 # define __CPU_CLR(cpu, cpusetp) 12 ((cpusetp)->__bits[__CPUELT (cpu)] &= ~__CPUMASK (cpu)) 13 # define __CPU_ISSET(cpu, cpusetp) 14 (((cpusetp)->__bits[__CPUELT (cpu)] & __CPUMASK (cpu)) != 0) 15 #endif
利用这几个宏方便我们操作指定cpu的对应bit位,比如清零,置位等。看一个完整的demo程序:
1 /** 2 * FileName: affinity_demo.c 3 */ 4 5 #define _GNU_SOURCE 6 7 #include <stdint.h> 8 #include <stdio.h> 9 #include <sched.h> 10 #include <pthread.h> 11 #include <stdlib.h> 12 13 14 static inline void print_cpu_mask(cpu_set_t cpu_mask) 15 { 16 unsigned char flag = 0; 17 printf("Cpu affinity is "); 18 for (unsigned int i = 0; i < sizeof(cpu_set_t); i ++) 19 { 20 if (CPU_ISSET(i, &cpu_mask)) 21 { 22 if (flag == 0) 23 { 24 flag = 1; 25 printf("%d", i); 26 } 27 else 28 { 29 printf(",%d", i); 30 } 31 } 32 } 33 printf(".\n"); 34 } 35 36 static inline void get_cpu_mask(pid_t pid, cpu_set_t *mask) 37 { 38 if (sched_getaffinity(pid, sizeof(cpu_set_t), mask) == -1) 39 { 40 perror("get cpu affinity failed.\n"); 41 abort(); 42 } 43 } 44 45 static inline void set_cpu_mask(pid_t pid, cpu_set_t *mask) 46 { 47 if (sched_setaffinity(pid, sizeof(cpu_set_t), mask) == -1) 48 { 49 perror("set cpu affinity failed.\n"); 50 abort(); 51 } 52 } 53 54 int main(int argc, char *argv[]) 55 { 56 unsigned int active_cpu = 0; 57 cpu_set_t cpu_mask; 58 59 get_cpu_mask(0, &cpu_mask); 60 print_cpu_mask(cpu_mask); 61 62 CPU_ZERO(&cpu_mask); 63 CPU_SET(active_cpu, &cpu_mask); 64 set_cpu_mask(0, &cpu_mask); 65 66 get_cpu_mask(0, &cpu_mask); 67 print_cpu_mask(cpu_mask); 68 69 for(;;) 70 { 71 ; 72 } 73 return 0; 74 }
编译,并运行
gcc affinity_demo.c -o demo -std=c99
程序卡死在死循环,让我们另开一个终端来看看当前系统cpu使用率:
mpstat -P ALL 1
0号cpu占用率为百分之百,而其它cpu基本完全空闲。我们再来试试把活动cpu设置为1的情况, 我们将上面程序的第56行修改为:
unsigned int active_cpu = 1;
编译并运行,同时观察一下此时我们的系统CPU使用率发生了什么变化:
值得注意的是,cpu affinity会被传递给子线程。
1 /** 2 * FileName: affinity_demo.c 3 */ 4 #define _GNU_SOURCE 5 6 #include <stdint.h> 7 #include <stdio.h> 8 #include <sched.h> 9 #include <pthread.h> 10 #include <stdlib.h> 11 12 static inline void print_cpu_mask(cpu_set_t cpu_mask) 13 { 14 unsigned char flag = 0; 15 printf("Cpu affinity is "); 16 for (unsigned int i = 0; i < sizeof(cpu_set_t); i ++) 17 { 18 if (CPU_ISSET(i, &cpu_mask)) 19 { 20 if (flag == 0) 21 { 22 flag = 1; 23 printf("%d", i); 24 } 25 else 26 { 27 printf(",%d", i); 28 } 29 } 30 } 31 printf(".\n"); 32 } 33 34 static inline void get_cpu_mask(pid_t pid, cpu_set_t *mask) 35 { 36 if (sched_getaffinity(pid, sizeof(cpu_set_t), mask) == -1) 37 { 38 perror("get cpu affinity failed.\n"); 39 abort(); 40 } 41 } 42 43 static inline void set_cpu_mask(pid_t pid, cpu_set_t *mask) 44 { 45 if (sched_setaffinity(pid, sizeof(cpu_set_t), mask) == -1) 46 { 47 perror("set cpu affinity failed.\n"); 48 abort(); 49 } 50 } 51 52 void *thread_func(void *param) 53 { 54 cpu_set_t cpu_mask; 55 get_cpu_mask(0, &cpu_mask); 56 printf("Slave thread "); 57 print_cpu_mask(cpu_mask); 58 while (1); 59 } 60 61 int main(int argc, char *argv[]) 62 { 63 unsigned int active_cpu = 0; 64 cpu_set_t cpu_mask; 65 pthread_t thread; 66 67 get_cpu_mask(0, &cpu_mask); 68 print_cpu_mask(cpu_mask); 69 70 CPU_ZERO(&cpu_mask); 71 CPU_SET(active_cpu, &cpu_mask); 72 set_cpu_mask(0, &cpu_mask); 73 74 get_cpu_mask(0, &cpu_mask); 75 printf("Master thread "); 76 print_cpu_mask(cpu_mask); 77 78 if (pthread_create(&thread, NULL, thread_func, NULL) != 0) 79 { 80 perror("pthread_create failed.\n"); 81 } 82 pthread_join(thread, NULL); 83 84 return 0; 85 }
当然,我们可以在子线程主函数thread_func再设置CPU亲缘性
1 void *thread_func(void *param) 2 { 3 cpu_set_t cpu_mask; 4 get_cpu_mask(0, &cpu_mask); 5 printf("Slave thread "); 6 print_cpu_mask(cpu_mask); 7 8 CPU_ZERO(&cpu_mask); 9 CPU_SET(1, &cpu_mask); 10 CPU_SET(2, &cpu_mask); 11 set_cpu_mask(0, &cpu_mask); 12 get_cpu_mask(0, &cpu_mask); 13 printf("Slave thread "); 14 print_cpu_mask(cpu_mask); 15 16 for (;;) 17 { 18 ; 19 } 20 }
编译并运行:
是吧
我们发现只有有1号cpu的利用率为百分之百?这是因为线程的执行代码太简单了,只有一个空的循环,而且当前系统也很空闲,即便是分配了两个cpu,进程调度程序也根本就没去调度它,所以它就随机的在某一个cpu上固定的死耗。当然,如果有其它程序要使用cpu1,那么此种情况下demo就可能会被调度到cpu2上去执行。可以试试,开两个终端都执行demo,此时看到的情况就是这样了:
在上面调用sched_getaffinity和sched_setaffinity时,我们传递的第一个参数pid都为0,这意味着修改的亲缘性就是针对当前调用该函数的线程,这也是最方便的,大多数情况下都这么用,除非你确实想修改其它线程的cpu亲缘性。
还有另外相关接口,可以用来指定某个线程的CPU亲缘性:
1 #define _GNU_SOURCE 2 #include <pthread.h> 3 4 int pthread_setaffinity_np(pthread_t thread, size_t cpusetsize, const cpu_set_t *cpuset); 5 int pthread_getaffinity_np(pthread_t thread, size_t cpusetsize, cpu_set_t *cpuset);
在利用NPTL创建出来的线程代码里,为了更好的兼容性,建议使用pthread_getaffinity_np和pthread_setaffinity_np,此时第一个参数不能再传0,可改成pthread_self()即可。而在其它情况下,当然还是使用sched_getaffinity和sched_setaffinity。
1 /** 2 * FileName: affinity_demo.c 3 */ 4 #define _GNU_SOURCE 5 6 #include <stdint.h> 7 #include <stdio.h> 8 #include <sched.h> 9 #include <pthread.h> 10 #include <stdlib.h> 11 12 static inline void print_cpu_mask(cpu_set_t cpu_mask) 13 { 14 unsigned char flag = 0; 15 printf("Cpu affinity is "); 16 for (unsigned int i = 0; i < sizeof(cpu_set_t); i ++) 17 { 18 if (CPU_ISSET(i, &cpu_mask)) 19 { 20 if (flag == 0) 21 { 22 flag = 1; 23 printf("%d", i); 24 } 25 else 26 { 27 printf(",%d", i); 28 } 29 } 30 } 31 printf(".\n"); 32 } 33 34 static inline void get_cpu_mask(pthread_t tid, cpu_set_t *mask) 35 { 36 if (pthread_getaffinity_np(tid, sizeof(cpu_set_t), mask) == -1) 37 { 38 perror("get cpu affinity failed.\n"); 39 abort(); 40 } 41 } 42 43 static inline void set_cpu_mask(pthread_t tid, cpu_set_t *mask) 44 { 45 if (pthread_setaffinity_np(tid, sizeof(cpu_set_t), mask) == -1) 46 { 47 perror("set cpu affinity failed.\n"); 48 abort(); 49 } 50 } 51 52 void *thread_func(void *param) 53 { 54 cpu_set_t cpu_mask; 55 get_cpu_mask(pthread_self(), &cpu_mask); 56 printf("Slave thread "); 57 print_cpu_mask(cpu_mask); 58 59 CPU_ZERO(&cpu_mask); 60 CPU_SET(1, &cpu_mask); 61 CPU_SET(2, &cpu_mask); 62 set_cpu_mask(pthread_self(), &cpu_mask); 63 get_cpu_mask(pthread_self(), &cpu_mask); 64 printf("Slave thread "); 65 print_cpu_mask(cpu_mask); 66 67 for (;;) 68 { 69 ; 70 } 71 } 72 73 int main(int argc, char *argv[]) 74 { 75 unsigned int active_cpu = 0; 76 cpu_set_t cpu_mask; 77 pthread_t thread; 78 79 get_cpu_mask(pthread_self(), &cpu_mask); 80 print_cpu_mask(cpu_mask); 81 82 CPU_ZERO(&cpu_mask); 83 CPU_SET(active_cpu, &cpu_mask); 84 set_cpu_mask(pthread_self(), &cpu_mask); 85 86 get_cpu_mask(pthread_self(), &cpu_mask); 87 printf("Master thread "); 88 print_cpu_mask(cpu_mask); 89 90 if (pthread_create(&thread, NULL, thread_func, NULL) != 0) 91 { 92 perror("pthread_create failed.\n"); 93 } 94 pthread_join(thread, NULL); 95 96 return 0; 97 }
最后,让我们来看一道经典的面试题,看看如何通过绑定CPU Affinity达到该效果。
原题是这样的:
写一个程序,让用户来决定Windows任务管理器(Task Manager)的CPU占用率。程序越精简越好,计算机语言不限。例如,可以实现下面三种情况:
这里,把题目精简一下,写一个程序,让Linux发行版(如ubuntu)任务管理器的CPU占用率状态是一条正弦曲线。
本文中有相当份量的内容参考借鉴了网络上各位网友的热心分享,特别是一些带有完全参考的文章,其后附带的链接内容更直接、更丰富,笔者只是做了一下归纳&转述,在此一并表示感谢。
《生成CPU使用率 sin 曲线 控制cpu使用率 编程之美》
标签:
原文地址:http://www.cnblogs.com/lojunren/p/3865232.html