码迷,mamicode.com
首页 > 其他好文 > 详细

hadoop集群安装20181016

时间:2018-10-18 18:07:10      阅读:161      评论:0      收藏:0      [点我收藏+]

标签:export   数据   share   add   文件   nbsp   标识   文件夹   installer   

安装jdk

一、通过ppa源下载:

1.添加ppa元,

sudo add-apt-repository ppa:webupd8team/java

#等待一会儿

sudo apt-get update

2.安装oracle-java-installer

sudo apt-get install oracle-java8-installer

或者免除点击同意条款安装方式

echo oracle-java8-installer shared/accepted-oracle-license-v1-1 select true | sudo /usr/bin/debconf-set-selections

 

二、设置jdk路径:通过ppa源安装好像不需要设置

jdk默认位置在/usr/lib/jvm/java-8-oracle

在/etc/profile文件末尾追加下列代码:

export JAVA_HOME=/usr/lib/jvm/java-8-oracle
export JRE_HOME=$JAVA_HOME/jre  
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib :$CLASSPATH
export PATH=$JAVA_HOME/bin:$PATH

三、测试

java -version

javac -version

 

增加hadoop用户

 

sudo adduser hadoop

 

安装hadoop

 

1.下载hadoop3.1.1到/home/hadoop路径下

 

2.解压 tar -zxvf hadoop-3.1.1.tar.gz

将会解压到:当前路径下/home/hadoop/hadoop-3.1.1

安装ssh免密登录

生成密钥并配置SSH无密码登录本机,输入命令:

ssh-keygen -t dsa - P ‘ ‘ -f ~/.ssh/id_dsa

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

将文件拷贝到其他的slave主机相同的文件夹内,输入命令:

scp: authorized_keys slave1:~.ssh/

查看是否可以从master主机无密码登录slave,输入命令:

ssh slave1

具体流程:

 

生成密钥并配置SSH无密码登录本机,输入命令:

 

ssh-keygen -t dsa - P ‘ ‘ -f ~/.ssh/id_dsa

 

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

 

将文件拷贝到其他的slave主机相同的文件夹内,输入命令:

 

scp: authorized_keys slave1:~.ssh/

 

查看是否可以从master主机无密码登录slave,输入命令:

ssh slave1

 

在所有主机上分别设置/etc/hosts及/etc/hostname。

hosts这个文件用于定义主机名与IP地址之间的对应关系。

/etc/hosts:

127.0.0.1localhost

202.202.5.141 master

202.202.5.××× slave1

hosname这个文件用于定义ubuntu的主机名/

/etc/hostsname:

你的主机名(eg:master,slave等等)

 

配置所有主机的Hadoop文件:

conf/Hadoop-env.sh:

export JAVA_HOME="安装java地址"

core-site.xml:

<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
<description>HDFS的URI,文件系统://namenode标识:端口号</description>
</property>
<property>
<name>Hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
<description>hadoop存储数据快的位置</description>
</property>
</configuration>

hdfs-site.xml:

<configuration>
<property>
<name>dfs.name.dir</name>
<value>/home/hadoop/hdfs/name</value>
<description>namenode上存储hdfs名字空间元数据</description>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoop/hdfs/data</value>
<description>datanode上数据块的物理存储位置</description>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
<description>副本个数,配置默认是3.应小于datanode机器数量</description>
</property>
</configuration>

mapred-site.xml:

<configuration>
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
<description></description>
</property>
</configuration>

 

hadoop集群安装20181016

标签:export   数据   share   add   文件   nbsp   标识   文件夹   installer   

原文地址:https://www.cnblogs.com/sunupo/p/9811789.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!