标签:aliyun XML 增加 nod 环境 拷贝 start head 软链接
测试环境搭建hadoop hdfs环境,记录如下:主机名 | ip地址 | 子网掩码 | 角色 |
---|---|---|---|
vm2 | 172.16.100.239 | 255.255.255.0 | Namenode |
vm6 | 172.16.100.128 | 255.255.255.0 | Datanode |
vm7 | 172.16.100.112 | 255.255.255.0 | Datanode/SecondaryNamenode |
操作系统版本为CentOS Linux release 7.4.1708 (Core)
# wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.8.5/hadoop-2.8.5.tar.gz
vm2# ssh-keygen #一路回车即可
vm2# ssh-copy-id -i /root/.ssh/id_rsa vm6 #将公钥传递到各个datanode下
vm2# ssh-copy-id -i /root/.ssh/id_rsa vm7
vm2# cat /etc/hosts
172.16.100.112 vm7
172.16.100.128 vm6
172.16.100.239 vm2
vm2# scp /etc/hosts vm6:/etc/
vm2# scp /etc/hosts vm7:/etc/
*/5 * * * * /usr/sbin/ntpdate ntp1.aliyun.com
所有机器crontab中增加同步时间定时任务,确保时间同步
# iptables -F
# iptables-save
# systemctl stop firewalld
# systemctl disable firewalld
下载JDK,这里使用jdk1.8版本的。下载链接:
http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
我这里提前下好了jdk,所以就直接安装了。
# cd soft/
# tar xf jdk-8u144-linux-x64.tar.gz -C /opt/ #解压到opt目录下
# cd /opt/
# ln -sv jdk1.8.0_144/ jdk #创建软链接
‘jdk’ -> ‘jdk1.8.0_144/’
配置环境变量,编辑/etc/profile.d/java.sh,添加如下内容:
export JAVA_HOME=/opt/jdk
export PATH=$JAVA_HOME/bin:$PATH
运行生效:
# . /etc/profile.d/java.sh
所有机器均需此步骤。
vm2# tar xf hadoop-2.8.5.tar.gz -C /opt/
vm2# mv hadoop-2.8.5.tar.gz hadoop
vm2# chown -R root.root hadoop
配置core-site.xml (配置文件目录在/opt/hadoop/etc/hadoop/)
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://vm2:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop/tmp</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file://${hadoop.tmp.dir}/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file://${hadoop.tmp.dir}/dfs/data</value>
</property>
</configuration>
配置hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>vm7:50090</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.hosts.exclude</name>
<value>/opt/hadoop/etc/hadoop/excludes</value>
</property>
</configuration>
在slaves文件中添加datanode节点
vm6
vm7
创建excludes文件,在这个文件中的主机,不会添加到集群中。
vm2# touch excludes
将配置文件拷贝到其他datanode节点上面。
格式化hdfs
vm2# bin/hdfs namenode -format
vm2# cd /opt/hadoop/sbin
vm2# ./start-dfs.sh
vm2# cd /opt/hadoop/bin
vm2# ./hdfs dfs -put /etc/fstab /
vm2# ./hdfs dfs -ls /
-rw-r--r-- 2 root supergroup 501 2018-10-17 11:56 /fstab
标签:aliyun XML 增加 nod 环境 拷贝 start head 软链接
原文地址:http://blog.51cto.com/hld1992/2301279