标签:htm zookeeper 官方 垃圾回收 声明 href log 启动 ocs
登录 https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/ 镜像站,找到我们要安装的版本,点击进去复制下载链接
安装Hadoop时要注意版本与后续安装的HBase、Spark等相关组件的兼容,不要安装了不匹配的版本,而导致某些组件需要重装
cd /usr/local/src/ wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz tar -zxvf hadoop-2.7.7.tar.gz mv hadoop-2.7.7 /usr/local/hadoop/
所有服务器都需要按要求修改配置
vi /etc/profile
在尾部添加下面配置
export HADOOP_HOME=/usr/local/hadoop/
export PATH=$PATH:$HADOOP_HOME/bin
保存退出后,运行命令,让配置马上生效
source /etc/profile
创建Hadoop需要的文件夹
# 所有服务器都需要执行创建hadoop的tmp文件夹 mkdir -p /data/hadoop/ # 在两台master服务器创建这个文件夹 mkdir -p /data/hadoop/journaldata
打开Hadoop对应版本的官方页面,按说明对Hadoop配置文件配置相关参数
http://hadoop.apache.org/docs/r3.1.3/hadoop-project-dist/hadoop-common/SingleCluster.html
cd /usr/local/hadoop/etc/hadoop/ vi hadoop-env.sh
在文件尾部添加java安装路径
export JAVA_HOME=/usr/local/java/jdk/
vi core-site.xml
将配置文件里的内容修改为下面内容:
<configuration> <!-- NameNode URI,客户端访问HDFS地址 --> <property> <name>fs.defaultFS</name> <value>hdfs://nameservice/</value> </property> <!-- 以分钟为单位的垃圾回收时间,垃圾站中数据超过此时间,会被删除。如果是0,垃圾回收机制关闭 --> <property> <name>fs.trash.interval</name> <value>4320</value> </property> <!-- 设置hadoop临时目录 --> <property> <name>hadoop.tmp.dir</name> <value>/data/hadoop/</value> </property> <!-- 设置zookeeper集群地址 --> <property> <name>ha.zookeeper.quorum</name> <value>master:2181,master-backup:2181</value> </property> </configuration>
vi hdfs-site.xml
将配置文件里的内容修改为下面内容:
<configuration> <!-- hadoop存储文件的副本数量 --> <property> <name>dfs.replication</name> <value>2</value> </property> <!-- 设置hadoop namenode存储路径 --> <property> <name>dfs.namenode.name.dir</name> <value>file://${hadoop.tmp.dir}/dfs/name</value> </property> <!-- 设置hadoop datanode存储路径 --> <property> <name>dfs.datanode.data.dir</name> <value>file://${hadoop.tmp.dir}/dfs/data</value> </property> <!--设置hdfs的nameservice,需要和core-site.xml中的保持一致 --> <property> <name>dfs.nameservices</name> <value>nameservice</value> </property> <!-- nameservice下面有两个NameNode --> <property> <name>dfs.ha.namenodes.nameservice</name> <value>namenodes1,namenodes2</value> </property> <!-- namenodes1的RPC通信地址 --> <property> <name>dfs.namenode.rpc-address.nameservice.namenodes1</name> <value>master:9000</value> </property> <!-- namenodes1的http通信地址 --> <property> <name>dfs.namenode.http-address.nameservice.namenodes1</name> <value>master:50070</value> </property> <!-- namenodes2的RPC通信地址 --> <property> <name>dfs.namenode.rpc-address.nameservice.namenodes2</name> <value>master-backup:9000</value> </property> <!-- namenodes2的http通信地址 --> <property> <name>dfs.namenode.http-address.nameservice.namenodes2</name> <value>master-backup:50070</value> </property> <!-- 开启NameNode失败自动切换 --> <property> <name>dfs.ha.automatic-failover.enabled</name> <value>true</value> </property> <!-- 设置NameNode的元数据在JournalNode上的存放位置 --> <property> <name>dfs.namenode.shared.edits.dir</name> <value>qjournal://master:8485;master-backup:8485/nameservice</value> </property> <!-- 设置JournalNode存放数据位置 --> <property> <name>dfs.journalnode.edits.dir</name> <value>/data/hadoop/journaldata</value> </property> <!-- 配置失败自动切换实现方式 --> <property> <name>dfs.client.failover.proxy.provider.nameservice</name> <value> org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider </value> </property> <!-- 配置隔离机制方法,多个机制用换行分割,即每个机制暂用一行--> <property> <name>dfs.ha.fencing.methods</name> <value> sshfence shell(/bin/true) </value> </property> <!-- 使用sshfence隔离机制时需要ssh免登陆 --> <property> <name>dfs.ha.fencing.ssh.private-key-files</name> <value>~/.ssh/id_rsa</value> </property> <!-- 配置sshfence隔离机制超时时间 --> <property> <name>dfs.ha.fencing.ssh.connect-timeout</name> <value>30000</value> </property> </configuration>
mv mapred-site.xml.template mapred-site.xml vi mapred-site.xml
将配置文件里的内容修改为下面内容
<configuration> <!-- 设置执行框架为Hadoop YARN --> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
vi yarn-site.xml
将配置文件里的内容修改为下面内容
<configuration> <!-- 启用resourcemanager为高可用 --> <property> <name>yarn.resourcemanager.ha.enabled</name> <value>true</value> </property> <!-- 启用MapReduce功能 --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <!-- 定义在节点管理器总的可用资源,用于container申请的物理内存大小。这里需要根据服务器实际的内存大小进行对应的调整 --> <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>1024</value> </property> <!-- 设置resourcemanager的集群标识, 确保RM不会接管另一个集群 --> <property> <name>yarn.resourcemanager.cluster-id</name> <value>yrc</value> </property> <!-- 设置resourcemanager的名字 --> <property> <name>yarn.resourcemanager.ha.rm-ids</name> <value>resourcemanager1,resourcemanager2</value> </property> <!-- 设置resourcemanager的地址 --> <property> <name>yarn.resourcemanager.hostname.resourcemanager1</name> <value>master</value> </property> <property> <name>yarn.resourcemanager.hostname.resourcemanager2</name> <value>master-backup</value> </property> <!-- 设置resourcemanager的webapp地址 --> <property> <name>yarn.resourcemanager.webapp.address.resourcemanager1</name> <value>master:8088</value> </property> <property> <name>yarn.resourcemanager.webapp.address.resourcemanager2</name> <value>master-backup:8088</value> </property> <!-- 设置zookeeper集群地址 --> <property> <name>yarn.resourcemanager.zk-address</name> <value>master:2181,master-backup:2181</value> </property> <!-- 开启 YARN 集群的日志聚合功能 --> <property> <name>yarn.log-aggregation-enable</name> <value>true</value> </property> <!-- YARN 集群的聚合日志最长保留时长 --> <property> <name>yarn.log-aggregation.retain-seconds</name> <!--1天--> <value>86400</value> </property> <!-- 启用resourcemanager自动恢复 --> <property> <name>yarn.resourcemanager.recovery.enabled</name> <value>true</value> </property> <!-- 制定 resourcemanager 的状态信息存储在 zookeeper 集群上--> <property> <name>yarn.resourcemanager.store.class</name> <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value> </property> </configuration>
如果使用root用户启动hadoop服务,则需要做以下配置,不然会直接报错
vi /usr/local/hadoop/sbin/start-dfs.sh
在第二行直接添加下面配置
HDFS_DATANODE_USER=root HADOOP_SECURE_DN_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root
vi /usr/local/hadoop/sbin/stop-dfs.sh
在第二行直接添加下面配置
HDFS_DATANODE_USER=root HADOOP_SECURE_DN_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root
vi /usr/local/hadoop/sbin/start-yarn.sh
在第二行直接添加下面配置
YARN_RESOURCEMANAGER_USER=root HADOOP_SECURE_DN_USER=yarn YARN_NODEMANAGER_USER=root
vi /usr/local/hadoop/sbin/stop-yarn.sh
在第二行直接添加下面配置
YARN_RESOURCEMANAGER_USER=root HADOOP_SECURE_DN_USER=yarn YARN_NODEMANAGER_USER=root
vi slaves
将localhost改为下面内容
node1
node2
node3
rsync -avz /usr/local/hadoop/ master-backup:/usr/local/hadoop/ rsync -avz /usr/local/hadoop/ node1:/usr/local/hadoop/ rsync -avz /usr/local/hadoop/ node2:/usr/local/hadoop/ rsync -avz /usr/local/hadoop/ node3:/usr/local/hadoop/
分别在master和master-backup服务器上执行命令,启动journalnode
/usr/local/hadoop/sbin/hadoop-daemon.sh start journalnode
启动后使用jps查看,可以发现两台服务器上已多出了JournalNode进程
如果是全新集群,第一次namenode启动,需要执行格式化操作(只在master服务器执行)
/usr/local/hadoop/bin/hdfs namenode -format
将master服务器namenode格式化生成的文件复制到master-backup中
rsync -avz /data/hadoop/dfs master-backup:/data/hadoop/
如果是非HA集群转换成HA集群,则需要复制旧集群master上的dfs到新增的master-backup服务器上,即只需要执行上面的复制命令即可,不需要再次格式化
然后在新master-backup服务器还需要执行下面命令,实现待命状态引导
/usr/local/hadoop/bin/hdfs namenode -bootstrapStandby
然后执行初始化操作,将master上的数据同步到master-backup
/usr/local/hadoop/bin/hdfs namenode -initializeSharedEdits
初始化容灾管理器
/usr/local/hadoop/bin/hdfs zkfc -formatZK
执行后,可在master和master-backup服务器上分别查看/data/hadoop/journaldata/目录,如果里面自动生成了nameservice文件夹,即表示初台化成功了
在master服务器中运行命令,启动HDFS
/usr/local/hadoop/sbin/start-all.sh
master-backup服务器上的resourcemanager需要手动启动
/usr/local/hadoop/sbin/yarn-daemon.sh start resourcemanager
在master与master-backup服务器上输入jps命令,就可以查看到已启动的服务
3569 Jps 1987 JournalNode 3220 NameNode 2937 QuorumPeerMain 10616 ResourceManager 3501 DFSZKFailoverController
执行上面命令后,各node节点上也已启动了NodeManager,datanode服务需要手动登录各node节点服务器上去分别启动
/usr/local/hadoop/sbin/hadoop-daemon.sh start datanode
输入jps命令,就可以查看到已启动的服务
15083 NodeManager 23043 DataNode 16319 Jps
在浏览器打开 http://192.168.10.90:8088/cluster 与 http://192.168.10.91:8088/cluster 查看到hadoop的运行状态
打开 http://192.168.10.90:50070/dfshealth.html#tab-datanode 与 http://192.168.10.91:50070/dfshealth.html#tab-overview 可以分别查看到两个master服务器的namenodes的状态分别为active与standby
版权声明:本文原创发表于 博客园,作者为 AllEmpty 本文欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则视为侵权。
作者博客:http://www.cnblogs.com/EmptyFS/
大数据高可用集群环境安装与配置(06)——安装Hadoop高可用集群
标签:htm zookeeper 官方 垃圾回收 声明 href log 启动 ocs
原文地址:https://www.cnblogs.com/EmptyFS/p/12113138.html