标签:准备 初始化 uid java 2.0 权限 下载安装 很多 变量
Hadoop 集群搭建集群简介
服务器准备
环境和服务器设置
JDK环境安装
Hadoop安装部署
启动集群
测试
在进行集群搭建前,我们需要大概知道搭建的集群都是些啥玩意。
HADOOP集群具体来说包含两个集群:HDFS集群和YARN集群,两者在逻辑上分离,但物理上常在一起(啥意思?就是说:HDFS集群和YARN集群,他们俩是两个不同的玩意,但很多时候都会部署在同一台物理机器上)
HDFS集群:负责海量数据的存储,集群中的角色主要有
NameNode (DataNode的管理者,负责保存元数据)
DataNode (负责保存具体的数据内容)
YARN集群:负责海量数据运算时的资源调度,集群中的角色主要有
ResourceManager (NodeManager的管理者,负责NodeManager的调用等)
NodeManager (当ResourceManager进行调用时,负责调用本地的运算资源等)
那mapreduce是什么呢?它其实是集群中一个应用程序开发包,放在yarn集群上面跑。
本集群搭建案例,以3节点为例进行搭建,角色分配如下:
服务器 | 角色1 | 角色2 | 角色3 |
---|---|---|---|
note1 | NameNode | ResourceManager | |
note2 | DataNode | NodeManager | SecondaryNameNode |
note3 | DataNode | NodeManager |
解析:
note1服务器担任的角色为NameNode和ResourceManager(即note1服务器为HDFS集群的NameNode节点,同时也是YARN集群的ResourceManager节点)
note2 服务器担任的角色为 DataNode 、 NodeManager 和 SecondaryNameNode(同上)
note3 服务器担任的角色为 DataNode 和 NodeManager(同上)
(ps:本来节点名字想打node的,错打成note,懒得改.)
本案例使用虚拟机服务器来搭建HADOOP集群,所用软件及版本:
Vmware12.0
Centos6.5 64bit
下载安装过程就省略啦,网上链接和教程一大把。
在进行网络准备的前提,是安装Vmware,新建三台虚拟机。
注:以下操作在root用户下操作。
配置虚拟机桥接方式,采用NAT方式联网
配置Linux的网络配置文件,具体设置步骤如下:
1、配置/etc/sysconfig/network-scripts/ifcfg-eth0
`shell> su root #切换为root用户` `shell> vi /etc/sysconfig/network-scripts/ifcfg-eth0 #编辑配置文件` 配置内容如下(修改下面有值的项,没有的加上): > DEVICE="..." > BOOTPROTO="static" #设置为静态IP > HWADDR="....." > IPV6INIT="..." > NM_CONTROLLED="...." > ONBOOT="yes" > TYPE="......" > UUID=".........." > IPADDR="192.168.88.3" #IP地址 > NETMASK="255.255.255.0" # 子网掩码 > GATEWAY="192.168.88.1" #网关地址
2、重启网络服务,使配置生效。
`shell> service network restart # 重启网络服务`
添加hadoop用户并添加sudo权限
shell> useradd hadoop #添加用户hadoop
shell> passwd hadoop #设置用户hadoop的密码
shell> chmod u+w /etc/sudoers # 添加写权限
shell> vi /etc/sudoers
进入编辑模式,找到这一 行:"root ALL=(ALL) ALL"在起下面添加"hadoop ALL=(ALL) ALL",然后保存退出。
shell> chmod u-w /etc/sudoers #撤销写权限
设置服务器时间同步date -s "2016-08-18 12:21:00
修改主机名shell> vi /etc/sysconfig/network
配置内容如下:
NETWORKING=yes
HOSTNAME=note1
配置内网域名映射
配置/etc/hosts配置文件:
shell> vi /etc/hosts
配置内容如下:
192.168.88.3 note1
192.168.88.4 note2
192.168.88.5 note3
配置ssh免密登陆
生成ssh免登陆密钥shell> cd ~/.ssh #进入到我的home目录
shell> ssh-keygen -t rsa #(四个回车)
执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
将公钥拷贝到要免密登陆的目标机器上shell> ssh-copy-id localhost
配置防火墙
因为需要进行免密登录,所以要对防火墙进行关闭。shell> service iptables status #查看防火墙状态
shell> service iptables stop #关闭防火墙
shell> chkconfig iptables --list #查看防火墙开机启动状态
shell> chkconfig iptables off #关闭防火墙开机启动
shell> reboot # 重启
解压jdk
创建一个目录app来放置解压后的文件shell> mkdir /home/hadoop/app #创建文件夹
shell> tar -zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/app #解压
配置环境变量
解压完毕后需要将java添加到环境变量中,并使其生效shell> vi /etc/profile
在文件最后添加一下内容:
export JAVA_HOME=/home/hadoop/app/jdk-7u_65-i585
export PATH=$PATH:$JAVA_HOME/bin
刷新配置,使其生效shell> source /etc/profile
解压Hadoop安装包
解压到app目录下shell> tar -zxvf hadoop-2.7.3.tar.gz -C /home/hadoop/app #解压
修改配置文件
配置文件都放在解压目录下的etc/hadoop/目录下(我这里的目录为/home/hadoop/app/hadoop-2.7.3/etc/hadoop/),但我们只对一部分的项进行配置,没有配置的项都将使用默认值。配置项是以xml的格式来进行的,最简化配置如下:
配置hadoop-env.shshell> vi hadoop-env.sh
在hadoop-env.sh配置文件中加入以下内容:
export JAVA_HOME=/home/hadoop/apps/jdk1.7.0_51 # JDK路径
配置core-site.xmlshell> vi core-site.xml
在core-site.xml配置文件中加入以下内容:
<configuration>
`<property>` `<name>fs.defaultFS</name>` `<value>hdfs://note1:9000</value>` `</property>`
<property>
<name>hadoop.tmp.dir</name>
<value>/home/HADOOP/apps/hadoop-2.6.1/tmp</value>
</property>
</configuration>
配置hdfs-site.xml
在用户目录下(/home/hadoop)创建一个data目录,用来存放HDFS产生的数据。然后对hdfs-site.xml进行配置shell> mkdir /home/hadoop/data
shell> vi hdfs-site.xml
在hdfs-site.xml配置文件中加入以下内容:
<configuration>
`<property>` `<name>dfs.namenode.name.dir</name>` `<value>/home/hadoop/data/name</value>` `</property>`
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hadoop/data/data</value>
</property>
`<property>` `<name>dfs.replication</name>` `<value>3</value>` `</property>`
<property>
<name>dfs.secondary.http.address</name>
<value>note2:50090</value>
</property>
</configuration>
配置mapred-site.xmlshell> vi mapred-site.xml
在mapred-site.xml配置文件中加入以下内容:
<configuration>
``<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
配置yarn-site.xmlshell> vi yarn-site.xml
在yarn-site.xml配置文件中加入以下内容:
<configuration>
`<property>` `<name>yarn.resourcemanager.hostname</name>` `<value>hadoop01</value>` `</property>`
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
配置salves
salves文件配置的内容是集群的主机地址shell> vi salves
在salves配置文件中加入以下内容:
note1 #主机名,通过/etc/hosts文件映射为IP地址
note2
note3
注意:以上所有配置(除了免密登录外,免密登录只需要在NameNode节点配置即可)都要在所有节点服务器进行配置。
初始化HDFS集群bin/hadoop namenode -format
启动HDFS集群sbin/start-dfs.sh
启动YARN集群sbin/start-yarn.sh
当然,你也可以使用sbin/start-all.sh
这个命令同时把HDFS和YARN集群启动,但是在做实验时不建议这样做,因为这样启动出现问题就不好定位了。在实际生产中,如果集群数量比较大,可以使用脚本进行启动。
注意:一般情况下HDFS和YARN集群的主节点(NameNode和ResourceManager物理上都是在同一服务器的)使用命令进行启动即可,其他节点会被主节点通过免密登录自动启动的。
1、启动HDFS集群成功,通过jps命令查看,进程2521 为NameNode进程
启动HDFS集群
2、启动Yarn集群成功,通过jps命令查看,进程2803位 ResourceManager进程
启动yarn集群
3、在浏览器查看HDFS集群(访问主节点的50070端口即可),浏览器中输入192.168.88.3:50070
HDFS集群信息
4、停止Hadoop集群,可以分别停止(分别使用stop-dfs.sh
和stop-yarn.sh
),当然你也可以一步停止集群(使用stop-all.sh
)
停止集群
至此,Hadoop集群搭建完毕。
标签:准备 初始化 uid java 2.0 权限 下载安装 很多 变量
原文地址:http://blog.51cto.com/lwm666/2064581