码迷,mamicode.com
首页 > 其他好文 > 详细

ceph 创建和删除osd

时间:2017-07-25 19:56:28      阅读:363      评论:0      收藏:0      [点我收藏+]

标签:uuid   rtu   post   日志   进入   集群   原来   system   查看   

ceph 创建和删除osd

1、概述
        本次主要是使用ceph-deploy工具和使用ceph的相关命令实现在主机上指定磁盘创建和删除osd,本次以主机172.16.1.96(主机名hadoop96)为例,此主机系统盘为/dev/sda, 其他盘有/dev/sdb、/dev/sdc和/dev/sdd,这几个盘都是裸磁盘,目的是使用这几个盘的组合创建osd。
        磁盘情况如下图:
        技术分享
2、创建osd
        使用ceph-deploy(工具安装在hadoop95上)创建osd,这里创建两个osd,其中一个数据和日志在同一个磁盘上,另外的osd日志被独立到另一个盘。
        1)数据和日志在同一个磁盘上
        执行ceph-deploy  osd create hadoop96:/dev/sdb,然后在hadoop96上查看如下图:
        技术分享
        进入/var/lib/ceph/osd/ceph-4目录查看
          技术分享
        如上图可知日志目录被链接到/dev/disk/by-partuuid/17f23e99-13dc-4a15-827b-745213c5c3dd,我们查看/dev/disk/by-partuuid/17f23e99-13dc-4a15-827b-745213c5c3dd,如下图:
        技术分享
        说明/dev/sdb2被作为日志的分区使用,所以新创建的osd.4默认数据和日志都在同一个磁盘/dev/sdb上不同分区。
        2)osd日志被独立到另一个盘
        执行ceph-deploy  osd create hadoop96:/dev/sdc:/dev/sdd,然后在hadoop96上查看如下图:
        技术分享
        进入/var/lib/ceph/osd/ceph-5目录查看
        技术分享
         如上图可知日志目录被链接到/dev/disk/by-partuuid/96eb886f-4095-4cb4-90fc-2976a8869cc1,我们查看/dev/disk/by-partuuid/96eb886f-4095-4cb4-90fc-2976a8869cc1,如下图:
         技术分享
        说明/dev/sdd1被作为日志的分区使用,所以新创建的osd.5数据在/dev/sdc1,而日志则独立在另一个磁盘的分区/dev/sdd1。
3、删除osd
        删除上面创建的osd。
        1)数据和日志在同一个磁盘上的osd
        将osd.4踢出集群,执行ceph osd out 4
        技术分享   
        停止此osd进程,执行systemctl stop ceph-osd@4
        技术分享
        然后执行:ceph osd crush remove osd.4,此时osd.4已经不再osd tree中了
        技术分享
        执行ceph auth del osd.4 和 ceph osd rm 4, 此时删除成功但是原来的数据和日志目录还在,也就是数据还在
        技术分享
        此时我们将/dev/sdb1磁盘umount,然后将磁盘进行擦除那么数据就会被完全删除了,执行umount /dev/sdb,然后执行ceph-disk zap /dev/sdb
        技术分享
        这时/dev/sdb又成为裸磁盘了,也就相当于彻底删除了osd.4。
        2)删除日志被独立到另一个盘的osd
        执行步骤和之前类似。
        将osd.5踢出集群,执行ceph osd out 5
        技术分享
        停止此osd进程,执行systemctl stop ceph-osd@5
        技术分享
        然后执行:ceph osd crush remove osd.5,此时osd.5已经不再osd tree中了
        技术分享
        执行ceph auth del osd.5和 ceph osd rm 5, 此时删除成功但是原来的数据和日志目录还在,也就是数据还在
        技术分享
        此时我们将/dev/sdc1磁盘umount,然后将磁盘进行擦除那么数据就会被完全删除了,执行umount /dev/sdc1,然后执行ceph-disk zap /dev/sdc      
        技术分享
        这时/dev/sdc又成为裸磁盘了,也就相当于彻底删除了osd.5,但是原来作为日志的分区/dev/sdd1还在,此时如果sdd有多个分区作为其他osd的日志分区那么就不能擦除/dev/sdd盘,但是此时/dev/sdd1分区已经没有被osd使用了所以再创建osd时要记得再利用,目前我觉得只能这样。

ceph 创建和删除osd

标签:uuid   rtu   post   日志   进入   集群   原来   system   查看   

原文地址:http://www.cnblogs.com/gzxbkk/p/7235753.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!