标签:class 打开 外部 映射 size prope sysconfig alt div
1.虚拟机 VMware 15.0
2.CentOS 6.5 Linux 系统
1.准备好三台虚拟机(这里我直接拷贝了Ha集群中一个作为主机,其余克隆)
2.修改基础配置:
1.删除每一台机器的Mac地址(CentOS 7 以上不需要)
rm -rf /erc/udev/rules.d/70-persistent-net.rules
2.修改etho网卡的ip地址
vi /etc/sysconfig/network-scripts/ifcfg-eth0
3.修改hostname
vi /etc/sysconfig/network
4.修改 hostmap
vi /etc/hosts ###记得添加其余俩台的ip与映射 然后scp 拷贝过去,省得再去修改其余俩台机器
3.修改Hadoop配置文件(由于是拷贝过来的,所以只修改部分就够了)
1.hadoop-env.sh 不做修改 ##jdk的目录早已配置好
2.core-site.xml 将入口改成主NameNode的hostname
1 <property> 2 <name>fs.default.name</name> 3 <value>hdfs://cmx031.ai179.com:8020</value> 4 </property> 5 <property> 6 <name>hadoop.tmp.dir</name> 7 <value>/opt/install/hadoop-2.5.2/data/tmp</value> 8 </property>
3.hdfs-site.xml #只要外部修改权限即可
1 <property> 2 <name>dfs.permissions.enabled</name> 3 <value>false</value> 4 </property>
4.yarn-site.xml #加上resourcenamenode的节点地址 ##注意这里的resource节点地址 最好不要与主NameNode节点相同
1 <property> 2 <name>yarn.nodemanager.aux-services</name> 3 <value>mapreduce_shuffle</value> 4 </property> 5 <property> 6 <name>yarn.resourcemanager.hostname</name> 7 <value>cmx032.ai179.com</value> 8 </property>
5.mapred-site.xml 不需要改变
6.slaves ##从节点的主机名 需要改成你对应的DataNode节点
4.然后先清除Hadoop_Home/data/tmp 目录下的所有文件,再将其余俩台机器的 /opt/install/hadoop (这是安装Hadoop的目录,可自己定义)删除,之后在第一台机器,
通过scp -r hadoop root@hostname:/opt/isntall 分别拷贝到其余俩台机器上。
5.然后在每一台机器上互相ssh 免密登录一下,打出yes,防之后启动hdfs服务主节点连接其他俩台机器连接不上
6.在主NameNode节点上进行格式化 :bin/hdfs namenode -format
7.开启hdfs服务:在Hadoop目录下:sbin/start-dfs.sh 开启服务 #通过jps检测相应的进程是否开启
8.在第二台机器上开启yarn集群服务(我在yarn-site.xml设置的yarn主节点):sbin/start-yarn.sh
9.各节点的进程开启无误后,在Windows上打开http://cmx032.ai179.com:8088 ,可以访问到MapReduce的主页面,打开http://cmx031.ai179.com:50070 ,可以访问到NameNode的主页面
代表集群搭建成功。
标签:class 打开 外部 映射 size prope sysconfig alt div
原文地址:https://www.cnblogs.com/cmxbky1314/p/12122030.html