标签:hadoop
1.在官网下载jdk1.7、maven3.2.1、ant1.9.4,解压设置好环境变量就可以用。
环境变量设置如下:
(1)执行vim /etc/profile
(2)在文件尾部加入:
export JAVA_HOME=/home/spark/jdk1.7 export MAVEN_HOME=/home/spark/apache-maven-3.2.1 export ANT_HOME=/home/spark/apache-ant-1.9.4 export PATH=$JAVA_HOME/bin:$MAVEN_HOME/bin:$ANT_HOME/bin:$PATH export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
(3)执行source /etc/profile
2.在官网下载protobuf2.5.0解压后进入目录依次执行如下命令:
./configure make make check make install
3.安装其它软件,我这里使用yum命令安装。
yum install cmake openssl-devel autoconf automake libtool (有些软件操作系统可能自带,安装时请使用rpm -qa命令查看)
1.登录官网:http://hadoop.apache.org/,找到下载链接,点进去下载即可。
2.解压编译:
tar zxvf hadoop-2.4.0-src.tar.gz cd hadoop-2.4.0-src mvn package -Pdist,native -DskipTests -Dtar
半个多小时后出现BUILD SUCCESS,即编译成功,可在hadoop-2.4.0-src/hadoop-dist/target文件夹中找到编译的文件。
http://www.cnblogs.com/shishanyuan/p/4164104.html http://www.aboutyun.com/thread-8130-1-1.html
本文出自 “Levy” 博客,请务必保留此出处http://liyong0802.blog.51cto.com/2574432/1679126
Linux64位操作系统(CentOS6.6)上如何编译hadoop2.4.0
标签:hadoop
原文地址:http://liyong0802.blog.51cto.com/2574432/1679126