标签:hadoop
系统: CentOS 6.3
需要安装jdk.
JDK的RPM下载地址: http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html
hadoop手册地址: http://hadoop.apache.org/docs/r1.2.1/index.html
关闭iptables和selinux
/etc/init.d/iptables stop chkconfig iptables off sed -i ‘s/SELINUX=enforcing/SELINUX=disabled/‘ /etc/selinux/config setenforce 0
useradd hadoop echo 123456 | passwd --stdin hadoop su - hadoop ssh-keygen -t rsa #生成密钥对 ssh-copy-id user@ip #将ssh公钥copy到指定的主机 cd .ssh #每台服务器本机也需要配置ssh免密码登录 cat id_rsa.pub >> authorized_keys
官网: http://hadoop.apache.org/
下载: http://mirror.bit.edu.cn/apache/hadoop/common/
wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz tar xf hadoop-1.2.1.tar.gz
修改配置
这是一个脚本文件,主要是用来初始化hadoop环境的.
修改JAVA_HOME变量, 告诉在那里可以找到java , 这里安装的是oracle jre的rpm,如下配置..
vi hadoop-env.sh export JAVA_HOME=/usr/java/jdk1.7.0_67
<configuration> <property> <name>fs.default.name</name> #指定名称节点在哪里... <value>hdfs://hadoop1:9000</value> #名称节点是hadoop1, 也可以写成ip地址. </property> <property> <name>hadoop.tmp.dir</name> #指定hadoop的临时文件目录,如果不指定会使用/tmp <value>/home/hadoop/hadoop-1.2.1/tmp</value> #要记得创建目录 mkdir /home/hadoop-1.2.1/tmp </property> <property> <name>fs.trash.interval</name> #指定回收站的清空间隔 <value>21600</value> #单位是分钟 <description> Number of minutes between trashcheckpoints. If zero, the trash feature is disabled </description> </property> </configuration>
<configuration> <property> <name>dfs.replication</name> #定义hdfs的复制因子,保存多少副本数 <value>2</value> #如果是1的话,不复制.. </property> <property> <name>dfs.block.size</name> <value>67108864</value> <description>The default block size for new files.</description> </property> </configuration>
<configuration> <property> <name>mapred.job.tracker</name> #指定jobtracker的地址和监听端口 <value>hadoop1:9001</value> </property> </configuration>
hadoop1 #在文件中指定充当master的主机名称
hadoop2 #在文件中指定充当salve的主机名称 hadoop3
7. 修改hosts
vi /etc/hosts 192.168.188.210 hadoop1 192.168.188.220 hadoop2 192.168.188.230 hadoop3
所有的hadoop的内容都是一样的,直接scp -r过去就可以了
cd /home/hadoop scp -r hadoop-1.2.1 ip:/home/hadoop
cd hadoop-1.2.1 ./bin/hadoop namenode -format 如果最后面的信息有下面这样的表示成功... 14/08/30 11:37:05 INFO common.Storage: Storage directory /home/hadoop/hadoop-1.2.1/tmp/dfs/name has been successfully formatted.
./bin/start-all.sh
如果第一次启动不成功,可以运行jps命令查看进程
如果安装的是oracle jdk 的rpm
/usr/java/jdk1.7.0_67/bin/jps 如果有hadoop的进程,可以运行kill命令将其杀掉,然后在启动..
启动后的日志在logs目录中
jobtracker namenode secondarynamenode 日志默认都在master上...
tasktracker datanode 在所有slave的logs中.
通过jps命令查看, java的进程统计列表
/usr/java/jdk1.7.0_67/bin/jps
1. 配置hosts文件
2. 建立hadoop运行账号
3. 配置ssh免密码登录
4. 下载并解压hadoop安装包
5. 配置namenode, 修改site文件
6. 配置hadoop-env.sh
7. 配置masters和slaves文件
8. 向各节点复制hadoop
9. 格式化namenode
10. 启动hadoop
11. 用jps检验各后台进程是否成功启动
本文出自 “晓风残月” 博客,请务必保留此出处http://kinda22.blog.51cto.com/2969503/1582552
标签:hadoop
原文地址:http://kinda22.blog.51cto.com/2969503/1582552