码迷,mamicode.com
首页 > 其他好文 > 详细

hdfs datanode通过添加数据盘扩容

时间:2019-03-30 10:55:15      阅读:217      评论:0      收藏:0      [点我收藏+]

标签:需要   备份   创建   ext   mkfs.ext4   strong   mkdir   过程   hbase   

最近,在生产环境中,hdfs集群数据量已达到存储的90%,亟需对存储空间进行扩容。

通过调研和实验,确定添加datanoe的存储目录比较适合我们的生产环境!在这里记录一下添加数据目录的过程。

  • 第一步:备份hdfs-site.xml配置文件
cp hdfs-site.xml hdfs-site.xml.20190330.bak
  • 第二步:添加数据磁盘、格式化,并挂载到/data2目录
#格式化磁盘
mkfs.ext4 /dev/sdb

#挂载磁盘到/data2
mount -t ext4 /dev/sdb /data2

#添加开机挂载
vim /etc/fstab
  • 第三步:创建hdfs数据存储目录
mkdir /data2/hadoop

注意:如果hadoop集群有用户权限,需要修改相应权限,例如:chown -R hadoop.hdfs /data2/hadoop

  • 第四步:修改hdfs-site.xml文件(所有节点),增加dfs.datanode.data.dir数据目录(用逗号分隔)
<property>
      <name>dfs.datanode.data.dir</name>
      <value>file:/data1/my_data/dfs-data,/data2/hadoop</value>
</property>
  • 第五步:重启HBASE集群

执行重启命令。。


 重启完成后,可以发现旧的数据目录会均衡一部分数据到新的目录,扩容工作完成~~

hdfs datanode通过添加数据盘扩容

标签:需要   备份   创建   ext   mkfs.ext4   strong   mkdir   过程   hbase   

原文地址:https://www.cnblogs.com/liuguangjiji/p/10625434.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!