码迷,mamicode.com
首页 > 其他好文 > 详细

一篇文章教你轻松安装hadoop(第2篇)

时间:2017-03-06 22:38:32      阅读:330      评论:0      收藏:0      [点我收藏+]

标签:hadoop   hdfs   大数据   hadoop安装   

  如果你看了我的上一篇文章,那此时你对hadoop已经有了一个大概的了解,那接下来这篇文章就教大家怎么安装hadoop环境,只要你用心,仔细的跟着文章中讲到的做,肯定能正确安装。

  

    第三章 安装hadoop环境

由于大家在学习hadoop时候,主要以Hadoop 1.0环境为主学习就可以,所以这主要介绍如何搭建Hadoop 1.0分布式环境。

整个分布式环境运行在带有linux操作系统的虚拟机,至于虚拟机linux系统的安装这里不做过多介绍

安装Hadoop分布式环境:

1) 下载Hadoop安装包:

http://down.51cto.com/data/2290706地址中可以找到hadoop-1.2.1-bin.tar.gz文件

使用securtCRT的rz功能上传hadoop-1.2.1-bin.tar.gz这个文件到虚拟机的系统中。

同样在securtcrt中ll时,能得到

技术分享 

2) 安装Hadoop安装包

首先将安装包解压缩

技术分享 

Linux终端执行cd进入相应目录:

技术分享 

新增tmp目录,mkdir  /home/hadoop/hadoop-1.2.1/tmp

技术分享 

3) 配置Hadoop:

使用vim修改master文件内容:

技术分享 

localhost修改成master:

技术分享 

最后保存退出。

修改slaves文件

注意,这里准备设置几台slave机器,就写几个,因为当前分布式环境有四个虚拟机,一台做master,三台做slave,所以这里写成了三个slave

技术分享 

修改core-site.xml文件:

技术分享 

【注意】中间的ip地址,不要输入192.168.2.55,根据自己的情况设置。

修改mapred-site.xml文件

技术分享 

【注意】记得value的内容要以http开头。

修改hdfs-site.xml文件:

技术分享 

其中,<value>3</value>视情况修改,如果有三台slave机器,这里设置成3,如果只有1台或2台,修改成对应的值即可。

修改hadoo-env.sh文件

技术分享

新增export JAVA_HOME=/home/hadoop/jdk1.6.0_45/

技术分享 

修改本地网络配置:编辑/etc/hosts文件

技术分享 

技术分享 

【注意】Ip地址根据具体的情况要进行修改。

4) 复制虚拟机

关闭当前虚拟机,复制多份

技术分享 

【注意】要选择初始化所有网卡的mac地址

技术分享 

根据自己需求,复制2到3台虚拟机作为slave,同样要确认网络连接方式为桥接。

设置所有机器的IP地址

分别启动虚拟机,修改机器的ip 地址,在虚拟机的图形界面里,选择设置技术分享单击打开,在弹出来的窗口里,选择技术分享

技术分享 

 

打开技术分享,修改成如下的形式,选择ipv4 ,分配方式选择成manual

注意】具体的ip地址,根据实际的情况来设置,因为培训教室里都是192.168.2.x的网段,所以我这里设置成了192.168.2.x,每个人选择自己的一个ip地址范围,注意不要和其它人冲突了。

技术分享 

5) 建立互信关系

生成公私钥,在master机器的虚拟机命令行下输入ssh-keygen,一路回车,全默认

技术分享 

复制公钥

复制一份master的公钥文件,cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

技术分享 

同样,在所有的slave机器上,也在命令行中输入ssh-keygen,一路回车,全默认

在所有的salve机器上,从master机器上复制master的公钥文件:

技术分享 

测试连接

master机器上分别向所有的slave机器发起联接请求:

如:ssh slave1

技术分享 

【注意】记得一旦联接上,所有的操作,就视同在对应的slave上操作,所以一定要记得使用exit退出联接。

6) 启动Hadoop:

初始化master机器上,进入/home/hadoop/hadoop-1.2.1/bin目录

技术分享 

安装包根目录下运行./hadoop namenode format来初始化hadoop的文件系统。

技术分享 

启动

执行./start-all.sh,如果中间过程提示要判断是否,需要输入yes

技术分享 

输入jps,查看进程是否都正常启动。

技术分享 

如果一切正常,应当有如上的一些进程存在。

7) 测试系统

输入./hadoop fs ls /

技术分享 

正常显示文件系统。

如此,hadoop系统搭建完成。否则,可以去/home/hadoop/hadoop-1.2.1/logs目录下,查看缺少的进程中,对应的出错日志。


  此时,你已经把hadoop环境搭建好了,下一篇文章将给大家介绍什么是HDFS文件系统,HDFS又能做什么呢?访问我的博客,学习更多hadoop知识http://ijiajia.blog.51cto.com

本文出自 “轻松学习hadoop” 博客,转载请与作者联系!

一篇文章教你轻松安装hadoop(第2篇)

标签:hadoop   hdfs   大数据   hadoop安装   

原文地址:http://ijiajia.blog.51cto.com/12656578/1903674

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!