码迷,mamicode.com
首页 > 其他好文 > 详细

Hadoop集群hdfs添加磁盘操作

时间:2018-05-03 23:27:25      阅读:1226      评论:0      收藏:0      [点我收藏+]

标签:dbn   一个   quit   ssd   打印   服务   查看   jpeg   int   

Hadoop集群hdfs添加磁盘操作

目前的环境是cdh。服务器部署在Azure;一个cdhmaster(一个namenode,一个datanode),四个cdhslave节点(各一个datanode)。

hdfs现状:
技术分享图片

首先是在Azure控制台对每台服务器添加一块磁盘(我这添加的是4T)

技术分享图片

在到服务器中对每台服务器进行添加磁盘操作:

因为在Linux中,常用2种分区表:

  1. MBR分区表(即主引导记录)
    所支持的最大分区:2T,而且对分区有限制:最多4个主分区或3个主分区加一个扩展分区 [fdisk命令操作]
  2. GPT分区表(即GUID分区表)
    是源自EFI标准的一种较新的磁盘分区表结构的标准,与MBR分区方式相比,具有如下优点:突破MBR 4个主分区限制,每个磁盘最多支持128个分区。支持大于2T的分区,最大可达18EB。 [parted命令操作]

使用 parted 建立大小超过2T的分区

  1. parted /dev/sde 可以输入p打印磁盘信息,查看分区的情况,找到起始和结束位置。
  2. mklabel gpt 设置分区类型为gpt
  3. mkpart primary 0% 100% primary指分区类型为主分区,0是分区开始位置,100%是分区结束位置。相同的命令为:mkpart primary 0-1 或者是:mkpart primary 0 XXXXXX结束的空间
  4. print 打印当前分区,查看分区设置是否正确
  5. quit 完成后用quit命令退出。
  6. mkfs.ext4 /dev/sde1 格式化磁盘。如果支持EXT4可选择格式化为EXT4.
  7. mkdir /data3 && mount /dev/sde1 /data3/

Hadoop集群hdfs添加磁盘操作

标签:dbn   一个   quit   ssd   打印   服务   查看   jpeg   int   

原文地址:https://www.cnblogs.com/a72hongjie/p/8987991.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!