码迷,mamicode.com
首页 > 其他好文 > 详细

【原创】安装和部署Hadoop

时间:2016-04-07 08:18:57      阅读:239      评论:0      收藏:0      [点我收藏+]

标签:

安装和部署Hadoop

一、安装虚拟机

1、    服务器配置信息

 

Linux主机一

Linux主机二

Linux主机三

主机名:master

主机名:host1

主机名:host2

IP:192.168.100.100

IP:192.168.100.101

IP:192.168.100.100

HDFS

MapReduce

HDFS

MapReduce

HDFS

MapReduce

NameNode

JobTracker

DataNode

TaskTracker

DateNode

TaskTracker

 

二、修改主机名

l   命令:[chybin@centos ~] vim /etc/sysconfig/network

打开文件后,

NETWORKING=yes  #使用网络

HOSTNAME=master  #设置主机名

l   命令:hostname master   #立即生效

l  查看主机名命令: [chybin@centos~] hostname

三、设置网络参数

l  命令:[chybin@master ~ ] vim /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE=eth0         #对应第一张网卡

TYPE=Ethernet

ONBOOT=yes          #是否启动时运行

NM_CONTROLLED=yes

BOOTPROTO=static       #使用静态IP,而不是由DHCP分配IP

DEFROUTE=yes

IPV4_FAILURE_FATAL=yes

IPV6INIT=no

NAME="System eth0"      #名称

HWADDR=00:50:56:94:04:3C  #必须对应etho是的MAC地址(/etc/udev/rules.d/70-persistent-net.rules)

PEERDNS=yes

PEERROUTES=yes

IPADDR=192.168.1.128    #指定本机IP地址

NETMASK=255.255.255.0    #指定子网掩码

GATEWAY=192.168.1.2     #指定网关

DNS1=192.168.1.2

l  重启网络

[chybin@master ~ ] service network restart

四、修改虚拟机的Hosts文件

l  分别在master、host1、host2三台机器上配置hosts。

l  命令:[chybin@master ~ ] vim /etc/hosts

l  host文件配置为:

192.168.100.100 master

192.168.100.101 host1

192.168.100.102 host2

五、配置SSH无密码登录

1、    生成公钥私钥

在三台主机上执行生成公钥私钥命令:

[chybin@master ~ ] ssh-keygen –t rsa

一路回车就创建了无密码的公钥私钥,存放在/home/chybin/.ssh文件夹下。

id_rsa是私钥

id_rsa.pub是公钥

2、    复制master的公钥

[chybin@master ~ ] sudo ~/.ssh/id_rsa.pub >> authorized_keys

3、    将master上的公钥发送给host1、host2

[chybin@master ~ ] sudo scp authorized_keys chybin@192.168.100.101:~/.ssh

[chybin@master ~ ] sudo scp authorized_keys chybin@192.168.100.102:~/.ssh

4、    修改authorized_keys权限

在master、host1、host2上修改authorized_keys文件的属性

[chybin@master ~ ] chmod 644 ~/.ssh/authorized_keys

[chybin@host1 ~ ] chmod 644 ~/.ssh/authorized_keys

[chybin@host2 ~ ] chmod 644 ~/.ssh/authorized_keys

5、    测试是否成功

在master上用ssh连接host1、host2

[chybin@master ~ ] ssh host1

第一次让输入密码,可以输入多个exit命令退出ssh后,再次ssh host1,就不用输入密码了。

六、安装Java JDK

l  先判断是否已经安装了Java jdk,用命令 [root@master ~ ] java –version

l  复制jdk-7u79-linux-x64.rpm到master随便一个目录中

l  安装jdk,命令:[root@master ~ ] # rpm –ivh ~/jdk-7u79-linux-x64.rpm.rpm

l  安装目录在/usr/java里,这时候用 java -version 就可以验证是否安装成功了。

七、设置环境变量

l  打开配置文件:sudo vim /etc/profile

l  追加变量:

JAVA_HOME=/usr/java/jdk1.7.0_79

PATH=$PATH:$JAVA_HOME/bin

CLASSPATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib

export JAVA_HOME CLASSPATH PATH

l  修改后,让配置文件立即生效: [chybin@master ~] source /etc/profile

八、安装hadoop

1、    版本选择

JDK

V1.7.0

Hadoop

V2.7.2

Hbase

V1.2

Hive

V1.2.1

2、    在master上安装Hadoop

(1)     将hadoop-2.7.2.tar.gz文件放入master随便一个目录下,这里选择根目录。

(2)     解压hadoop-2.7.2.tar.gz

[chybin@master ~ ] $ tar –zxvf hadoop-2.7.2.tar.gz

(3)     在master上创建hadoop文件夹

[chybin@master ~ ] $ sudo mkdir /usr/hadoop

(4)     剪切hadoop-2.7.2到hadoop文件夹下

[chybin@master ~ ] $ sudo mv /hadoop-2.7.2 /usr/hadoop

3、    在master上配置Hadoop

(1)     配置Hadoop环境变量

l  打开配置文件

[chybin@master ~]$ sudo vim /etc/profile

l  追加变量

HADOOP_HOME=/usr/hadoop/hadoop-2.7.2

PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export HADOOP_HOME PATH

(2)     配置hadoop-env.sh

l  hadoop 2.X版本的配置文件都在${HADOOP_HOME}/etc/hadoop目录里。

l  文件结构如下:

 技术分享

l  hadoop-env.sh配置为

export  JAVA_HOME=${JAVA_HOME}

export HADOOP_HOME=/usr/hadoop/hadoop-2.7.2

export PATH=$HADOOP_HOME/bin:$PATH

l  使hadoop-env.sh生效

[chybin@master ~] $ source ${HADOOP_HOME}/etc/hadoop/hadoop-env.sh

 

(3)     配置slave文件

[chybin@master ~]$ sudo vim ${HADOOP_HOME}/etc/hadoop/slaves

文件内容:

host1

host2

(4)     配置core-site.xml

<configuration>

 <property>

   <name>fs.default.name</name>

   <value>hdfs://master</value>

 </property>

 <property>

   <name>hadoop.tmp.dir</name>

   <value>/usr/hadoop/hadoop-2.7.2/hadoop_tmp</value>

 </property>

</configuration>

 

(5)     配置hdfs-site.xml

 

<configuration>

  <property>

   <name>dfs.replication</name>

   <value>1</value>

  </property>

  <property>

    <name>heartbeat.recheckinterval</name>

    <value>10</value>

  </property>

  <property>

    <name>dfs.name.dir</name>

    <value>file:/usr/hadoop/hadoop-2.7.2/hdfs/name</value>

  </property>

  <property>

    <name>dfs.data.dir</name>

    <value>file:/usr/hadoop/hadoop-2.7.2/hdfs/data</value>

  </property>

</configuration>

 

(6)     配置yarn-site.xml

<configuration>

<property>

  <name>yarn.resourcemanager.address</name>

  <value>master:8032</value>

 </property>

 <property>

   <name>yarn.resourcemanager.scheduler.address</name>

   <value>master:8030</value>

 </property>

 <property>

   <name>yarn.resourcemanager.resource-tracker.address</name>

   <value>master:8031</value>

 </property>

 <property>

  <name>yarn.resourcemanager.adimin.address</name>

  <value>master:8033</value>

 </property>

 <property>

  <name>yarn.resoucemanager.webapp.address</name>

  <value>master:8088</value>

 </property>

 <property>

  <name>yarn.nademanager.aux-services</name>

  <value>mapreduce_shuffle</value>

 </property>

 <property>

  <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

  <value>org.apache.hadoop.mapred.ShuffleHandler</value>

 </property>

</configuration>

 

4、    其他必要配置

(7)     三台机器上配置hadoop文件夹的读写权限

[chybin@master ~]$ sudo chmod 777 -R /usr/hadoop/hadoop-2.7.2

5、    将Hadoop文件夹复制到host1、host2

(8)     复制hadoop2.7.2到host1、host2

[chybin@master ~ ] $ sudo scp –r /usr/hadoop/hadoop-2.7.2 chybin@host1:/usr/hadoop

[chybin@master ~ ] $ sudo scp –r /usr/hadoop/hadoop-2.7.2 chybin@host2:/usr/hadoop

6、    格式化NameNode

[chybin@master ~ ] $ hadoop namenode -format

 

7、    验证是否安装成功

[chybin@master ~]$ hadoop version

Hadoop 2.7.2

Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r b165c4fe8a74265c792ce23f546c64604acf0e41

Compiled by jenkins on 2016-01-26T00:08Z

Compiled with protoc 2.5.0

From source with checksum d0fda26633fa762bff87ec759ebe689c

This command was run using /usr/hadoop/hadoop-2.7.2/share/hadoop/common/hadoop-common-2.7.2.jar

[chybin@master ~]$ hadoop fs -ls /

Found 1 items

drwxr-xr-x   - chybin supergroup          0 2016-04-05 05:19 /demo1

master机器上:

[chybin@master ~]$ jps -l

13121 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode

13275 org.apache.hadoop.yarn.server.resourcemanager.ResourceManager

15271 sun.tools.jps.Jps

12924 org.apache.hadoop.hdfs.server.namenode.NameNode

host1机器上:

 

【原创】安装和部署Hadoop

标签:

原文地址:http://www.cnblogs.com/chybin/p/5362001.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!