标签:data- coding efault mapreduce cond 分布 blog XML txt
安装 JDK
yum -y install java-1.8.0-openjdk*
java -version
配置 Java 环境变量
export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
然后执行如下命令,让环境变量生效:
source /etc/profile
通过如下命令,验证 Java 环境变量是否已成功配置并且生效:
echo $JAVA_HOME
ssh-keygen -t dsa -P ‘‘ -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
接着可以验证下,在不输入密码的情况下,应该能使用 ssh 命令成功连接本机:
ssh 119.29.174.175
exit
SSH 配置完毕后,我们接着下载并安装 Hadoop。
安装 Hadoop
mkdir -p /data/hadoop && cd $_
接着下载 Hadoop 安装包到该目录下:
wget http://archive.apache.org/dist/hadoop/core/hadoop-2.7.1/hadoop-2.7.1.tar.gz
解压下载好的 Hadoop 安装包到当前目录:
tar -zxvf hadoop-2.7.1.tar.gz
然后将解压后的目录重命名为 hadoop,并且将其移至 /usr/local/ 目录下:
mv hadoop-2.7.1 hadoop && mv $_ /usr/local/
在编辑器中打开 Hadoop 环境配置文件,使用Ctrl + F
搜索如下行
export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk
查看下 Hadoop 的版本:
/usr/local/hadoop/bin/hadoop version
可以看到 Hadoop 的版本信息:
Hadoop 2.7.1
安装 Hadoop 就是这么简单。至此 Hadoop 已经安装完成,紧接着我们需要做的就是修改 Hadoop 的配置信息。
修改 Hadoop 配置
修改 HDFS 配置文件 core-site.xml,将configuration
配置修改为如下内容:
core-site.xml
<configuration> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/tmp</value> </property> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
修改 HDFS 配置文件 hdfs-site.xml,将 configuration 配置修改为如下内容:
hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop/dfs/data</value> </property> <property> <name>dfs.permissions</name> <value>false</value> </property> </configuration>
修改 HDFS 配置文件 yarn-site.xml,将 configuration 配置修改为如下内容:
yam-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
以上配置修改完毕后,我们可以尝试启动 Hadoop。
启动 Hadoop
对 HDFS 文件系统进行格式化:
./hdfs namenode -format
接着进入如下目录:
cd /usr/local/hadoop/sbin/
先后执行如下两个脚本启动 Hadoop:
./start-dfs.sh
./start-yarn.sh
接着执行如下命令,验证 Hadoop 是否启动成功:
jps
如果输出了类似如下的指令,则说明 Hadoop 启动成功啦
标签:data- coding efault mapreduce cond 分布 blog XML txt
原文地址:http://www.cnblogs.com/beyang/p/7351025.html