码迷,mamicode.com
首页 > 其他好文 > 详细

Docker之cgroup篇

时间:2016-09-17 22:13:49      阅读:1498      评论:0      收藏:0      [点我收藏+]

标签:cgroup   docker   

一、CGroup简介:

CGroup 是 Control Groups 的缩写,是 Linux 内核提供的一种可以限制、记录、隔离进程组 (process groups) 所使用的物力资源 (如 cpu memory i/o 等等) 的机制。2007 年进入 Linux 2.6.24 内核,CGroups 不是全新创造的,它将进程管理从 cpuset 中剥离出来,作者是 Google 的 Paul Menage。CGroups 也是 LXC 为实现虚拟化所使用的资源管理手段。

CGroup 功能及组成

CGroup 是将任意进程进行分组化管理的 Linux 内核功能。CGroup 本身是提供将进程进行分组化管理的功能和接口的基础结构,I/O 或内存的分配控制等具体的资源管理功能是通过这个功能来实现的。这些具体的资源管理功能称为 CGroup 子系统或控制器。CGroup 子系统有控制内存的 Memory 控制器、控制进程调度的 CPU 控制器等。运行中的内核可以使用的 Cgroup 子系统由/proc/cgroup 来确认。

CGroup 提供了一个 CGroup 虚拟文件系统,作为进行分组管理和各子系统设置的用户接口。要使用 CGroup,必须挂载 CGroup 文件系统。这时通过挂载选项指定使用哪个子系统。

二、CGroup子系统介绍:

blkio -- 这个子系统为块设备设定输入/输出限制,比如物理设备(磁盘,固态硬盘,USB 等等)。

cpu -- 这个子系统使用调度程序提供对 CPU 的 cgroup 任务访问。

cpuacct -- 这个子系统自动生成 cgroup 中任务所使用的 CPU 报告。

cpuset -- 这个子系统为 cgroup 中的任务分配独立 CPU(在多核系统)和内存节点。

devices -- 这个子系统可允许或者拒绝 cgroup 中的任务访问设备。

freezer -- 这个子系统挂起或者恢复 cgroup 中的任务。

memory -- 这个子系统设定 cgroup 中任务使用的内存限制,并自动生成由那些任务使用的内存资源报告。

net_cls -- 这个子系统使用等级识别符(classid)标记网络数据包,可允许 Linux 流量控制程序(tc)识别从具体 cgroup 中生成的数据包。

ns -- 名称空间子系统。

三、实验内容:

  1. 实验环境: 
    RHEL6.5    172.25.44.1     server1.example.com

    iptables selinux disabled

    2.Cgroup的安装:

    [root@server1 ~]# yum install -y libcgroup.x86_64

    [root@server1 ~]# /etc/init.d/cgconfig start
    Starting cgconfig service:                                 [  OK  ]

    3.内存限制:

    [root@server1 ~]# ls /cgroup/memory/        ##查看memory可用到的限制
    cgroup.event_control             memory.move_charge_at_immigrate
    cgroup.procs                     memory.oom_control
    memory.failcnt                   memory.soft_limit_in_bytes
    memory.force_empty               memory.stat
    memory.limit_in_bytes            memory.swappiness
    memory.max_usage_in_bytes        memory.usage_in_bytes
    memory.memsw.failcnt             memory.use_hierarchy
    memory.memsw.limit_in_bytes      notify_on_release
    memory.memsw.max_usage_in_bytes  release_agent
    memory.memsw.usage_in_bytes      tasks
    [root@server1 ~]# cat /cgroup/memory/memory.limit_in_bytes
    9223372036854775807            ##内存限制字节数

    [root@server1 ~]# vim /etc/cgconfig.conf

    group x1 {
        memory {
                memory.limit_in_bytes=209715200;    ##200*1024*1024=209715200# 限200M       

        }
    }
    [root@server1 ~]# /etc/init.d/cgconfig restart
    Stopping cgconfig service:                                 [  OK  ]
    Starting cgconfig service:                                 [  OK  ]

    [root@server1 ~]# df
    Filesystem                   1K-blocks    Used Available Use% Mounted on
    /dev/mapper/VolGroup-lv_root   6926264 1033680   5540740  16% /
    tmpfs                           510120       0    510120   0% /dev/shm
    /dev/vda1                       495844   33473    436771   8% /boot

    测试:
    [root@server1 ~]# cd /dev/shm/
    [root@server1 shm]# dd if=/dev/zero of=bigfile bs=1M count=300

    300+0 records in
    300+0 records out
    314572800 bytes (315 MB) copied, 0.216686 s, 1.5 GB/s

    在swap,所以,我们还要限制swap

    补充配置文件:

    [root@server1 shm]# vim /etc/cgconfig.conf
    group x1 {
        memory {
                memory.limit_in_bytes=209715200;
                memory.memsw.limit_in_bytes=209715200;
        }
    }

    [root@server1 shm]# /etc/init.d/cgconfig restart
    Stopping cgconfig service:                                 [  OK  ]
    Starting cgconfig service:                                 [  OK  ]
    [root@server1 shm]# cgexec -g memory:x1 dd if=/dev/zero of=bigfile bs=1M count=300
    Killed
    4.执行脚本内存限制:

    下载脚本 memapp1 memapp2 两个均为 4096 pages of memory (1个pages of memory = 4字节) 加执   行权限,现令memapp1可以执行,memapp2不可以
    [root@server1 ~]# chmod +x memapp*
    [root@server1 ~]# ./memapp1

    -bash: ./memapp1: /lib/ld-linux.so.2: bad ELF interpreter: No such file or directory
    [root@server1 ~]# yum install -y ld-linux.so.2

    [root@server1 ~]# ./memapp1

    Process ID is: 1217

    Grabbing 4096 pages of memory

    Success!

    Press any key to exit

    [root@server1 ~]# ./memapp2

    Process ID is: 1218

    Grabbing 8192 pages of memory

    Success!

    Press any key to exit

    [root@server1 ~]# vim /etc/cgconfig.conf 

    group x1 {
        memory {
                memory.limit_in_bytes=16777216;        ##4096*4*1024=16777216                                                                 memory.memsw.limit_in_bytes=16777216;
        }
    }

    [root@server1 ~]# vim /etc/cgrules.conf

    *:memapp1       memory  x1/
    *:memapp2       memory  x1/    ##限制任何人在执行这两个脚本时,都遵循x1里的限制

    [root@server1 ~]# /etc/init.d/cgconfig restart
    Stopping cgconfig service:                                 [  OK  ]
    Starting cgconfig service:                                 [  OK  ]
    [root@server1 ~]# /etc/init.d/cgred restart
    Stopping CGroup Rules Engine Daemon...                     [  OK  ]
    Starting CGroup Rules Engine Daemon:                       [  OK  ]

    测试:
    [root@server1 ~]# ./memapp1

    Process ID is: 1271

    Grabbing 4096 pages of memory

    Success!

    Press any key to exit

    [root@server1 ~]# ./memapp2

    Process ID is: 1272

    Grabbing 8192 pages of memory
    Killed
    5.CPU限制:

    优先级区间19 ~ -20 ,19为最低优先级。

    修改配置文件:

    [root@server1 ~]# vim /etc/cgconfig.conf

    group x2 {
        cpu {
                cpu.shares=100;    ##优先级设为100,小于默认的
        }
    }

    [root@server1 ~]# /etc/init.d/cgconfig restart
    
Stopping cgconfig service:                                 [  OK  ]
    Starting cgconfig service:                                 [  OK  ]

    测试:

    若为2个CPU,则关掉一个

    [root@server1 ~]# cd /sys/devices/system/cpu/cpu1    (注意:cpu0不可以关掉,里面都没有online的选择)

    [root@server1 cpu1]# cat online     ##状态为1,表示cpu正在工作
    1    
    [root@server1 cpu1]# echo 0 > online     ##状态为0,表示关掉cpu

    [root@server1 cpu1]# dd if=/dev/zero of=/dev/null &
    [1] 1286
    [root@server1 cpu1]# dd if=/dev/zero of=/dev/null &
    [2] 1287
    [root@server1 cpu1]# top    ##可以看到两个进程在均衡占用cpu
    技术分享

    [root@server1 cpu1]# cgexec -g cpu:x2 dd if=/dev/zero of=/dev/null &
    [1] 1291
    [root@server1 cpu1]# top    ##只有一个资源在占用cpu

    技术分享

    [root@server1 cpu1]# dd if=/dev/zero of=/dev/null &
    [2] 1293
    [root@server1 cpu1]# top    ##可以看到分配的cpu资源不同,因为优先级不同了

    技术分享

    6.I/O限制:

    查看所限制设备的类型:

    [root@server1 cpu1]# ll /dev/vda
    brw-rw---- 1 root disk 252, 0 Sep 17 21:06 /dev/vda

    [root@server1 cpu1]# ll /dev/sda1
    brw-rw---- 1 root disk 8, 1 Sep 17 20:42 /dev/sda1

    修改配置文件:

    [root@server1 ~]# vim /etc/cgconfig.conf

    group x3 {
        blkio {
                blkio.throttle.read_bps_device="252:0 1024000";
        }
    }

    [root@server1 cpu1]# /etc/init.d/cgconfig restart

    测试:

    [root@server1 cpu1]# cgexec -g blkio:x3 dd if=/dev/vda of=/dev/null

    ^C27401+0 records in
    27400+0 records out
    14028800 bytes (14 MB) copied, 13.9036 s, 1.0 MB/s

    限制速度为1M

    7.限制freezer:

    修改配置文件:

    [root@server1 cpu1]# vim /etc/cgconfig.conf 

    group x4 {
        freezer {
        }
    }

    [root@server1 cpu1]# /etc/init.d/cgconfig restart

    冻结任务:

    [root@server1 cpu1]# cd /cgroup/freezer/x4

    [root@server1 x4]# echo 7952 > tasks

    cat freezer.state   

        --> THAWED c活跃状态   

        FROZEN 冻结状态   

        echo FROZEN > freezer.state 

        会发现7592任务被冻结了,但是任务还在进行中,像CPU等都还在

    

    




本文出自 “需要努力的人” 博客,请务必保留此出处http://zzkkk.blog.51cto.com/11721816/1853367

Docker之cgroup篇

标签:cgroup   docker   

原文地址:http://zzkkk.blog.51cto.com/11721816/1853367

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!