码迷,mamicode.com
首页 > 其他好文 > 详细

集群分布式 Hadoop安装详细步骤

时间:2015-04-08 18:15:17      阅读:252      评论:0      收藏:0      [点我收藏+]

标签:

集群分布式Hadoop系统安装及测试

本系统一共有三个节点,一个namenode,两个datanode,IP和主机名对应如下:

192.168.1.19           namenode

192.168.1.7             datanode1

192.168.1.20           datanode2

1、安装配置

1)、安装配置JDK,在三个节点都需要安装,下面操作在三个节点上都需要执行:

a、下载jdk-6u45-linux-x64.bin文件,将下载的文件放到/usr/java目录,下载地址为:

http://www.oracle.com/technetwork/java/javase/downloads/java-archive-downloads-javase6-419409.html

b、在/usr/java目录下运行 ./ jdk-6u45-linux-x64.bin   安装JDK。

# ./jdk-6u45-linux-x64.bin

c、配置JAVA_HOME以及CLASS_PATH,使用vi命令修改/etc/profile,在文件的最后加上如下代码:

 JAVA_HOME=/usr/java/jdk1.6.0_45
 PATH=$JAVA_HOME/bin:$PATH
 CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
 export JAVA_HOME PATH CLASSPATH
/etc/profile是为每个用户配置环境变量信息,当用户第一次登陆系统时,该文件被执行,这个文件是针对所有用户的,修改对所有用户都有效。

d、执行java-version查看当前版本配置有没有生效,编写HelloWorld.java看看是否能正确编译执行。

2)、在三个节点上分别创建hadoop用户,并设置密码,此处将所有密码设为hadoop。

  # useradd –m –s /bin/bash hadoop
  # passwd hadoop
       -m参数表示为用户创建home目录,-s/bin/bash表示为用户指定shell,也可以不指定,默认为sh,不好用。创建hadoop用户后,以后进行hadoop相关操作时需要用hadoop登录。不能用root或其他用户登录。

3)、下载Hadoop,此处使用的版本为hadoop-1.2.1,三个节点都需要,可以下载一次后用scp复制到其他节点(最好配置后再使用scp复制,这样只需要配置一次),下载地址为:http://hadoop.apache.org/releases.html

下载之后用下面命令解压:                       

 $ tar –xzvf hadoop-1.2.1.tar.gz

4)、配置SSH,配置SSH的目的是为了在各个节点访问时免输入密码,仅第一次使用时需要密码。执行如下命令(在所有三个节点上):                                  

 $ mkdir .ssh

在namenode上生成密钥对,在namenode执行如下命令:                      

 $ ssh-keygen –t rsa

一直按<Enter>键,使用默认配置,最终就会将生成的密钥对保存在.ssh/id_rsa中。接着执行下面命令:

 $ cd ~/.ssh
 $ cp id_rsa.pub authorized_keys
 $ scp authorized_keysdatanode1:/home/hadoop/.ssh
 $ scp authorized_keys datanode2:/home/hadoop/.ssh

最后进入所有机器的.ssh目录,改变authorized_keys的许可权限:                         

$ chmod 644 authorized_keys

644的二进制为110 100100,表示拥有者可以读写,同组的用户可读,其他组的用户可读。

5)、配置hadoop环境。在第3)步时,我们已经解压hadoop,进入hadoop文件夹。hadoop的配置文件主要放在hadoop安装目录下的conf目录中,主要有以下几个配置文件要修改:

         conf/hadoop-env.sh: hadoop环境变量设置

         conf/core-site.xml: 主要完成namenode的IP和端口设置

         conf/hdfs-site.xml: 主要完成HDFS的数据块副本等参数设置

         conf/mapred-site.xml: 主要完成JobTrackerIP和端口的设置

         conf/masters: 完成Master节点IP设置

         conf/slaves: 完成Slaves节点设置

a、配置core-site.xml文档如下,指定hadoop.tmp目录和IP:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl"href="configuration.xsl"?>
<!-- Put site-specific propertyoverrides in this file. -->
<configuration>
       <property>
               <name>hadoop.tmp.dir</name>
               <value>/tmp/hadoop/hadoop-${user.name}</value>
       </property>
       <property>
               <name>fs.default.name</name>
               <value>hdfs://192.168.1.19:9000</value>
       </property>
</configuration>
b、配置hdfs-site.xml文档的内容如下:

<?xml version="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific propertyoverrides in this file. -->
<configuration>
       <property>
               <name>dfs.namenode.name.dir</name>
               <value>/home/hadoop/hadoop-1.2.1/dfs/name</value>
       </property>
       <property>
               <name>dfs.datanode.data.dir</name>
                <value>file:///home/hadoop/hadoop-1.2.1/dfs/data</value>
       </property>
       <property>
               <name>dfs.replication</name>
                <value>1</value>
       </property>
</configuration>   

c、配置mapred-site.xml文件

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl"href="configuration.xsl"?>
<!-- Put site-specific propertyoverrides in this file. -->
<configuration>
       <property>
               <name>mapred.job.tracker</name>
               <value>192.168.1.19:9001</value>
       </property>
       <property>
               <name>mapreduce.cluster.local.dir</name>
               <value>/home/hadoop/hadoop-1.2.1/mapred/local</value>
       </property>
       <property>
               <name>mapreduce.jobtracker.system.dir</name>
               <value>/home/hadoop/hadoop-1.2.1/mapred/system</value>
       </property>
</configuration>

注:上面出现IP的地方一定要替换成自己的IP,端口不要变。

d、修改conf/masters文件

         修改conf/masters文件为Master的主机名,每个主机名一行,此处即为namenode.

e、加入所有Slaves的主机名,即datanode1和datanode2.

f、把hadoop复制到其他节点,执行下面的命令:                              

$ scp –r hadoop-1.2.1 datanode1:/home/hadoop
$ scp –r hadoop-1.2.1 datanode2:/home/hadoop

g、检查每个节点的JAVA_HOME配置,如果已经配置过了,那么恭喜你,配置完成了。

2、运行Hadoop

1)、格式化HDFS系统,在初次安装和使用Hadoop之前,需要格式化分布式文件系统HDFS,操作命令如下:                                   

 $ bin/hadoop namenode –format

2)启动Hadoop环境,启动Hadoop守护进程。在namenode上启动NameNode、JobTracker和SecondaryNameNode,在datanode1和datanode2上启动DataNode和TaskTracker,并用如下jps命令检查启动情况:

 $bin/start-all.sh
 $jps

在namenode上启动正常结果如下(使用jps)所示:

                                                                            技术分享   技术分享

在datanode上使用jps结果如下(datanode不需要使用start-all.sh命令):

                                                                           技术分享技术分享

要停止hadoop守护进程,可以使用如下命令: $bin/stop-all.sh

3)运行测试程序

下面用一个程序测试能否运行任务,示例程序是一个Hadoop自带的PI值的计算,第一个参数是指要运行的map的次数,第二个参数是指每个map任务取样的个数。在hadoop目录执行:                               

$bin/hadoop jar hadoop-examples-1.2.1.jar pi 2 5

最后结果如下:

                                               技术分享技术分享

至此,配置结束。

参考文献:《深入理解大数据 大数据处理与编程实战》主编:黄宜华老师(南京大学)


集群分布式 Hadoop安装详细步骤

标签:

原文地址:http://blog.csdn.net/x_i_y_u_e/article/details/44942609

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!