标签:
http://blog.csdn.net/pipisorry/article/details/51331734
本教程配置环境:
docker (virtual box / virtual machine或者直接用ubuntu14.04都ok!,建议还是用虚拟机,docker太难搞了,没有配置的官方文件)
ubuntu14.04(Ubuntu 12.04 /32位、64位都ok!)
hadoop 2.6.0 (原生 Hadoop 2都ok!)
# apt-get update
# apt-get install docker.io
#service docker start
让它随服务器的启动而自动运行
# update-rc.d docker defaults
#gpasswd -a pika docker #普通用户pika也可以运行docker命令
下载ubuntu镜像
# docker pull ubuntu:14.04
#docker run -it ubuntu bash
如果你安装 Ubuntu 的时候不是用的 “hadoop” 用户,那么需要增加一个名为 hadoop 的用户。
首先按 ctrl+alt+t 打开终端窗口,输入如下命令创建新用户 :sudo useradd -m hadoop -s /bin/bash
这条命令创建了可以登陆的 hadoop 用户,并使用 /bin/bash 作为 shell。
接着使用如下命令设置密码:sudo passwd hadoop
可为 hadoop 用户增加管理员权限,方便部署,避免一些权限问题:sudo adduser hadoop sudo
最后注销当前用户,在登陆界面使用刚创建的 hadoop 用户进行登陆
root@171664f3fa1d:/# apt-get update #更新apt,不是用的docker也是这样操作
# apt-get install -y vim
安装和配置java环境
在主机上从Oracle官方网站下载对应版本的JDK安装包
将本机下载目录/media/pika/softwares/Downloads/LinuxInstalls分享到Docker的/mnt 目录下
#docker run -v /media/pika/softwares/Downloads/LinuxInstalls:/mnt -it c917d6497f55 bash
root@f26f7d459863:/#sudo vim /etc/environment
第一行“...”的path末尾加上:${JAVA_HOME}/bin,后面export路径
PATH="/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:${JAVA_HOME}/bin"
export JAVA_HOME=/opt/jdk1.8.0_91
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
root@f26f7d459863:/#
sudo update-alternatives --install /usr/bin/java java /opt/jdk1.8.0_91/bin/java 300;
sudo update-alternatives --install /usr/bin/javac javac /opt/jdk1.8.0_91/bin/javac 300;
sudo update-alternatives --install /usr/bin/javah javah /opt/jdk1.8.0_91/bin/javah 300;
sudo update-alternatives --install /usr/bin/jar jar /opt/jdk1.8.0_91/bin/jar 300
. /etc/environment
测试是否安装成功
root@f26f7d459863:/#java -version
lz使用的ubuntu镜像是之前配置好的python_ubuntu[使用docker配置python开发环境],里面安装好了vim、openssh-server等等,当然你可以直接安装
安装SSH、配置SSH无密码登陆
集群、单节点模式都需要用到 SSH 登陆,Ubuntu 默认已安装了 SSH client,还需要安装 SSH server:
root@f26f7d459863:/#sudo apt-get install -y openssh-server
编辑sshd的配置文件root@f26f7d459863:/#vim /etc/ssh/sshd_config,将其中UsePAM参数设置成“no”
启动sshd服务root@f26f7d459863:/# /etc/init.d/ssh start
查看ssh服务状态 root@f26f7d459863:/# ps -e | grep ssh
47 ? 00:00:00 sshd
安装后,可以使用如下命令登陆本机:ssh localhost
此时会有SSH首次登陆提示,输入 no,(输入yes再输入密码,这样就登陆到本机了,但这样登陆是需要每次输入密码的,我们需要配置成SSH无密码登陆比较方便,如果进去了首先退出刚才的 ssh)。
回到我们原先的终端窗口,然后利用 ssh-keygen 生成密钥,并将密钥加入到授权中:
exit # 退出刚才的 ssh localhost
cd ~/.ssh/ # 若没有该目录,请先执行一次ssh localhost
ssh-keygen -t rsa # 会有提示,都按回车就可以
cat ./id_rsa.pub >> ./authorized_keys # 加入授权
另开一个terminal,保存当前的容器为镜像
docker ps找到刚才安装了ssh的镜像/容器id
docker commit 容器id
pika:~$docker ps
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
07f9a3b3f737 tmp:latest "bash" 5 minutes ago Up 5 minutes condescending_pike
pika:~$docker commit o7f9 ssh
Hadoop 2 可以通过 http://mirror.bit.edu.cn/apache/hadoop/common/ 或者 http://mirrors.cnnic.cn/apache/hadoop/common/ 下载,一般选择下载最新的稳定版本,即下载 “stable” 下的 hadoop-2.x.y.tar.gz 这个格式的文件,这是编译好的,另一个包含 src 的则是 Hadoop 源代码,需要进行编译才可使用。
我们选择将 Hadoop 安装至 /usr/local/ 中:
sudo tar -zxf ~/下载/hadoop-2.6.0.tar.gz -C /usr/local # 解压到/usr/local中
cd /usr/local/
sudo mv ./hadoop-2.6.0/ ./hadoop # 将文件夹名改为hadoop
sudo chown -R hadoop ./hadoop # 修改文件权限
Hadoop 解压后即可使用。输入如下命令来检查 Hadoop 是否可用,成功则会显示 Hadoop 版本信息:
cd /usr/local/hadoop
./bin/hadoop version
from: http://blog.csdn.net/pipisorry/article/details/51331734
ref:
标签:
原文地址:http://blog.csdn.net/pipisorry/article/details/51331734