标签:运维
设定文件系统配额
1.分区挂载选项:
usrquota、grpquota (可以设置为分区开机自动挂载选项)
2.初始化数据库:
quotacheck -cug dirname
-u 生成user.quota文件
-g 生成group.quota文件
3.为用户设定配额:
quotaon、quotaoff dirname 开启/取消配额
edquota username 直接编辑当前用户自身配额
-u username 查看其它用户磁盘配额
setquota username 4096 5120 40 50 /foo 在shell中直接编辑
-p user1 user2 定义原始标准用户
4.报告配额状态:
quota 查看当前用户配额
quota username 查看指定用户配额
requota 挂载点 配额概述
warnquota 警报
-u usename (给指定用户发邮件,在/var/mail/目录下查看)
-g groupname (当组的配额超出时给组管理员发邮件,管理员需在/etc/quotagrpadmin 中指定,格式为: groupname:username)
--------------------※实验一:用户磁盘配额※-----------------------
①vim /etc/fstab 在/home后设置defaults,usrquota(用户配额),grpqu(组配额)
②quotacheck -cug /home 生成quota文件
③quotaon /home 开启quota
④cd username 切换至用户的家目录
⑤edquota username 编辑用户quota,其内容如下
[root@centos6 caocao]# edquota -u caocao
Disk quotas for user caocao (uid 508):
已经有的block大小(kb) 软限额 硬限额 已经有的inode数量
Filesystem blocks soft hard inodes soft hard
/dev/sda6 64 102400 122880 16 200 280
⑥quota -u username 查看用户配额
[root@centos6 ~]# quota -u caocao
Disk quotas for user caocao (uid 508): 宽限天数(当超出这个天数后,超出配额的文件将会被强制删除)
Filesystem blocks quota limit grace files quota limit grace
/dev/sda6 76 102400 122880 17 200 280
⑦su - username(必须交互式登录用户才能测试出来配额)
测试caocao用户的配额设定:
[root@centos6 home]# su - caocao
[caocao@centos6 ~]$ for i in {18..199};do touch test$i;done 创建
[caocao@centos6 ~]$ quota
Disk quotas for user caocao (uid 508):
Filesystem blocks quota limit grace files quota limit grace
/dev/sda6 92224 102400 122880 199 200 280
[caocao@centos6 ~]$ touch test200
[caocao@centos6 ~]$ quota
Disk quotas for user caocao (uid 508):
Filesystem blocks quota limit grace files quota limit grace
/dev/sda6 92224 102400 122880 200 200 280
[caocao@centos6 ~]$ touch test201 #超过限额
sda6: warning, user file quota exceeded.
[caocao@centos6 ~]$ quota #当超过限额时,file位置出现*,grace出现提示位
Disk quotas for user caocao (uid 508):
Filesystem blocks quota limit grace files quota limit grace
/dev/sda6 92224 102400 122880 201* 200 280 7days
--------※ 实验二:迁移/home(将home由/迁移至某一分区)※--------
1.知识点及注意事项:
①生产环境中可能存在不同用户同时在线访问家目录,这会导致家目录挂载失败从而迁移失败,所以,需要切换到多用户模式,阻止其他用户在线访问。
init 0 关机
1 单用户模式
3 多用户模式
4 用户自定义
5 多用户+图形化
6 重启
②此过程中需要将新建分区挂载两次。第一次时因为要将/home数据写入分区。第二次将分区挂载到/home下。
2.实验步骤:
init 0 进入单用户模式
vim /etc/selinux/config =permissive 关闭selinux
fdisk /dev/sda 创建/dev/sda6 (注意当sda5为拓展分区时,不要选择系统默认起始柱面,而要自己选择起始柱面)
mkfs.ext4 /dev/sda6
df 查看/home是否被挂载,如挂载现将其卸载
mount /dev/sda6 /mnt
cp -a /home/* /home.bak 备份/home
mv /home/* /mnt 将/home下的文件移到/dev/sda6下
rm -rf /home 删除/home
umount /dev/sda6 卸载sda6
mkdir /home
mount /dev/sda6 /home 将sda6挂载到/home下
vim /etc/fstab 设置开机自动挂载sda6到/home
UUID="6c8be0be-d54c-4bd6-a6cb-8b6f11aacc23" /home ext4 defaults 0 2
此时,/home下拥有之前的所有数据,且挂载到了sda6下,完成迁移
reboot 重启
RAID
一:什么是raid??
多个磁盘合成一个“阵列”来提供更好的性能、冗余,或者两者都提供。
二:常用raid类型:
三:mdadm 创建软RAID
①格式:
mdadm [mode] <raiddevice> [options] <devices>
②mode&&options
-C --create 创建
options:
-n 所使用的块设备的数量
-l 指定raid级别
-a{yes/no} 自动创建raid设备的设备文件
-c chunk_size 指定chunk大小
-x 指明空闲盘的个数(热备盘) raid0 没有热备盘
-G raid设备 -n # -c 块设备名 往raid中添加设备(一般都要重新指定 -n)
-A 装配
-F 监控
-f,-r,-a 管理
-f 标记指定磁盘为损坏
-a 添加磁盘
-r 移除磁盘
③<raiddevice>:/dev/md#
④<devices>:任意的块设备(磁盘或磁盘分区)
注意:当使用分区组成raid设备时,要先将其分区格式转换成raid格式,例如我们想要新建raid0设备,有两个分区组成,步骤如下:
1.转换分区格式
[root@centos6 ~]# fdisk /dev/sdb
Command (m for help): t
Selected partition 1
Hex code (type L to list codes): fd
Command (m for help): p
Device Boot Start End Blocks Id System
/dev/sdb1 1 1306 10490413+ fd Linux raid autodetect #转换成功,保存退出
同上再转换/dev/sdc1为raid格式
2.创建raid
mdadm -C
⑤查看reid信息
mdadm -D /dev/md# 查看指定RAID的详细信息(detail)
cat /proc/mdstat 查看md的进度
配置软RAID
①创建一个raid5
mdadm -C /dev/md0 -a yes -l 5 -n 3 -x 1 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
②格式化
mkfs.ext4 /dev/md0
③检测
④检查raid设备的状况
[root@centos6 ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Thu Aug 10 04:24:47 2017
Raid Level : raid5
Array Size : 41910272 (39.97 GiB 42.92 GB)
Used Dev Size : 20955136 (19.98 GiB 21.46 GB) #热备盘大小
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Thu Aug 10 04:27:00 2017
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Name : centos6.9:0 (local to host centos6.9)
UUID : eff8381d:fb18016b:ee06c91d:ef2a7086
Events : 20
Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc
4 8 48 2 active sync /dev/sdd
3 8 64 - spare /dev/sde #热备盘
⑤往raid中添加新设备
mdadm /dev/md0 -a /dev/sdf1
软raid的检测和修复
①模拟故障
mdadm /dev/md0 -f /dev/sda1 模拟磁盘故障
mdadm /dev/md0 –r /dev/sda1 移除磁盘
②修复故障步骤:
1)替换出故障的磁盘然后开机
2)在备用驱动器上重建分区
3) mdadm /dev/md0 -a /dev/sda1 向raid设备添加磁盘
软raid管理:
生成配置文件:
mdadm -D -s >/etc/mdada.conf 将所有的raid信息保存到配置文件
mdadm -D -s raid名 >>/etc/mdada.conf 将指定的raid的信息追加到配置文件
停止设备:mdadm –S /dev/md0 (stop)
激活设备:mdadm –A –s /dev/md0
强制启动:mdadm –R /dev/md0
删除raid信息:mdadm --zero-superblock /dev/sdb1
注意:
当没有生成配置文件时,停掉raid设备后再次重启时需要指定磁盘名,为了方便重启raid,我们可以生成配置文件,这样在重启时就不需要指定磁盘。
[root@centos6 ~]# mdadm -A /dev/md0 /dev/sdb /dev/sdc /dev/sdd /dev/sde #没有生成配置文件之前启动md0
mdadm: /dev/md0 has been started with 3 drives and 1 spare.
[root@centos6 ~]# mdadm -Ds /dev/md0 >> /etc/mdadm.conf #生成配置文件
[root@centos6 ~]# mdadm -S /dev/md0 #再次关闭md0
mdadm: stopped /dev/md0
[root@centos6 ~]# mdadm -A /dev/md0 #不加参数,直接重启md0,重启成功
mdadm: /dev/md0 has been started with 3 drives and 1 spare.
常见raid操作:
删除raid
1.查看raid是否挂载,卸载raid
2.查看raid的成员:
[root@centos6 ~]# mdadm -D /dev/md0
3.关闭raid
[root@centos6 ~]# mdadm -S /dev/md0
4.删除raid信息:
[root@centos6 ~]# mdadm --zero-superblock /dev/sdb
[root@centos6 ~]# mdadm --zero-superblock /dev/sdc
[root@centos6 ~]# mdadm --zero-superblock /dev/sdd
[root@centos6 ~]# mdadm --zero-superblock /dev/sde
5.删除raid配置文件中该raid信息
[root@centos6 ~]# vim /etc/mdadm.conf
配置逻辑卷
一:逻辑卷原理
将几个物理分区(或磁盘)通过软件组合成一块独立的大磁盘(VG),再将VG分区形成可使用的分区(LV),最终就能够挂载使用。
二:PV PE VG LV 是什么??
PE 物理拓展块
一个PE块默认为4MB,vg中最多包含65534个PE,即一个VG大小为256G。调整PE大小可以影响VG大小(文件系统的扩大和缩小就和他有关!!!!)
PV 物理卷:
通过fdisk将分区格式化为8e(LVM)格式,createpv将格式化后的分区转化为最底层的PV,之后才能创建VG。
VG 逻辑卷组
由多个物理的磁盘或分区组成的大磁盘(由PV组成)
LV 逻辑卷
由VG切割而成,而LV不能随意指定大小,因为LV也是由PE组成,所以只能是4的倍数。格式为‘/dev/vgname/lvname’。
逻辑卷弹性更改文件系统容量原理:
①VG的拓展原理:加上其他设备的PE
②LV的拓展和缩减原理:添加所属VG中没有使用的PE;将LV内没有使用的PE转移到其他设备以降低容量。
三:LV各组件的实现流程:
※ PV阶段:
pvcreate 将物理分区新建成pv
pvscan 显示已有的pv
pvdisplay 详细显示已有的pv状态
pvremove 删除pv(将分区的pv属性删除)
※ VG阶段(vgname自定义):
vgcreate 新建vg
-s 指定PE大小
vgscan 显示系统已有vg
vgdisplay 湘详细显示vg信息
vgextend 拓展vg(pvs查看pv,添加没有使用的pv到vg)
格式:vgextend vgname pvname
vgreduce 缩减vg(删除pv到)
vgchange 设置vg是否启动(active)
vgremove 删除一个vg
※ LV阶段:
lvcreate 新建lv
格式:lvcreate -L lv容量 -n lvname vgname(说明lv占用着vg中的PE)
注意:lv容量应该是PE大小的倍数
lvscan 显示系统中已有lv
lvdisplay 详细显示lv
lvextend 增容lv
lvreduce 降容lv
lvremove 删除lv
lvresize 对lv进行容量大小调整
注:vg名为自定义。但lv名为/dev/vgname/lvname
到这里,lv已经创建成功。lv创建成功后就能进入我们熟悉的文件系统阶段了。
※ lv分区的格式化、挂载。
本文出自 “13162823” 博客,请务必保留此出处http://13172823.blog.51cto.com/13162823/1959817
标签:运维
原文地址:http://13172823.blog.51cto.com/13162823/1959817