码迷,mamicode.com
首页 > 系统相关 > 详细

Ubuntu中搭建Hadoop2.5.2完全分布式系统(二)

时间:2015-07-08 12:39:28      阅读:169      评论:0      收藏:0      [点我收藏+]

标签:

继续上文,接着进行介绍

2.2编辑hadoop-env.sh

由于Hadoop是基于java编写的,所以需要在hadoop-env.sh里设置JDK路径。首先打开/etc/hadoop/hadoop-env.sh文件。

找到JAVA_HOME变量,将其修改为

export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64  

如下图所示:

技术分享 

2.3配置core-site.xml

core-site.xml配置集群的全局参数,主要定义了系统级别的参数,如HDFS  URL、Hadoop的临时目录等信息。

在终端中输入sudo gedit /usr/local/hadoop/etc/hadoop/core-site.xml

打开core-site.xml。打开后在<configuration></configuration>之间增加如下图所示内容,然后保存。

技术分享

fs.default.name 设置的是NameNode RPC交互端口默认值为8020端口,这里我们将其设为9000端口。hadoop.tmp.dir为临时目录设定,设定在/home/hadoop/hadoop/tmp目录下。其他的配置没有进行设定,采用其默认配置。

2.4配置yarn-site.xml文件

yarn-site.xml配置集群资源管理系统的参数,包括ResourceManager,NodeManager 的通信端口,web 监控端口等内容。

在终端中输入sudo gedit /home/hadoop/hadoop/etc/hadoop/yarn-site.xml

打开yarn-site.xml。打开后在<configuration></configuration>之间增加配置,如下图所示:

 技术分享

配置yarn.nodemanager.aux-services可以自定义一些服务内容,本集群中设置为mapreduce-shuffle,这样就可以实现mapreduce的shuffle功能

2.5配置mapred-site.xml文件

marpred-site.xml用于配置mapreduce参数,包含JobHistory Server和应用程序参数两部分。默认情况下,/usr/local/hadoop/etc/hadoop/文件夹下只有mapred.xml.template文件。

在终端中输入命令cp etc/hadoop/mapred-site.xml.template  ./etc/hadoop/mapred-site.xml

复制该文件,并命名为mapred.xml,该文件用于指定Map/Reduce使用的框架。

然后在终端中输入:

sudo gedit /home/hadoop/hadoop/etc/hadoop/mapred-site.xml

打开mapred-site.xml。打开后在<configuration></configuration>之间增加配置,如下图所示:

 技术分享

mapreduce.framework.name 设置的是Map/Reduce框架类型,默认值为local。本集群安装的是第二代Hadoop系统,采用的Map/Reduce编程框架是yarn,所以设置值为yarn。mapreduce.jobhistory.address定义历史服务器的地址和端口,可以通过历史服务器查看已经运行完的Map/Reduce作业记录。mapreduce.jobhistory.webapp.address用于设定历史服务器的web应用访问的地址和端口。

2.6配置hdfs-site.xml文件

hdfs-site.xml中设置的主要是NameNode和DataNode的存储位置,备份文件副本的个数和文件的读取权限等信息。

在终端中输入sudo gedit /home/hadoop/hadoop/etc/hadoop/hdfs-site.xml

打开hdfs-site.xml文件。打开之后进行配置,配置内容如下图所示:

技术分享

dfs.name.dir配置的是DFS(分布式文件系统)的NameNode在本节点的文件系统中的位置。而dfs.data.dir配置的是DataNode在本节点的文件系统中的位置。

dfs.replication配置的是数据块的备份数量,最高为3.

2.7Master/Salves设置

在NameNode节点的/home/hadoop/hadoop/etc/hadoop路径下创建两个文本文件,分别命名为masters和slaves。在masters文件下输入hadoop-namenode,hadoop-namenode表示的是192.168.1.110这个IP地址,与之前设置静态IP时对应,在slaves下输入hadoop-datanode1和hadoop-datanode2,作用是Datanode的IP地址。设置完成后,点击保存保存,并将这两个文件复制到其他服务器节点的相同路径下。

三、启动Hadoop

3.1格式化HDFS

启动Hadoop之前要先在NameNode节点上格式化NameNode。在终端中输入命令:hadoop namenode –format即可

3.2启动Hadoop

格式完成之后打开/home/hadoop/hadoop/sbin/start-all.sh文件就可运行Hadoop平台了。

登录http://192.168.1.110:50070即可查看节点信息。

登录http://192.168.1.110:8088可以查看任务信息

 

Ubuntu中搭建Hadoop2.5.2完全分布式系统(二)

标签:

原文地址:http://www.cnblogs.com/tjucs/p/4629544.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!