标签:yar 0.11 apache rmi slaves 编辑 centos6.5 oop centos
注:图片如果损坏,点击文章链接:https://www.toutiao.com/i6627365258090512909/
安装好虚拟机(3个节点)
YUM源已安装好、系统版本CentOS6.5、java版本是1.7,三个节点,其中一个节点完成Hadoop安装后,启动之前克隆两台节点,并完成hadoop用户的免密配置。
我们继续安装:
先安装工具:yum install –y net-tools
创建目录
在master1中创建用户hadoop、id查看创建用户信息(是否成功)、passwd设置密码
使用户成为sudoers,以root用户修改文件/etc/sudoers,修改方式如下
改回root用户,修改/opt/bigdata文件夹的权限
进入hadoop用户
进入我们的工具包目录
我们将软件解压到/opt/bigdata
解压命令
进目录查看下
在hadoop目录下建立tmp目录,并将权限设定为777,同时创建dfs、dfs/name、dfs/data
进入配置目录
以hadoop用户角色配置如下文件
core-site.xml
hdfs-site.xml
masters
slaves
yarn-site.xml
hadoop-env.sh
mapred-env.sh
yarn-env.sh
yarn-slaves
编辑yarn-env.sh
修改如下内容
编辑 hadoop-env.sh
修改如下内容
编辑mapred=env.sh
修改如下内容
修改core-site.xml
修改如下内容
文档内容:
hadoop.tmp.dir
/opt/bigdata/hadoop-2.7.3/tmp
fs.default.name
hdfs://master1:9000
hadoop.proxyuser.hadoop.hosts
*
hadoop.proxyuser.hadoop.groups
*
编辑hdfs-site.xml
修改如下内容
文档内容
dfs.replication
3
dfs.namenode.name.dir
/opt/bigdata/hadoop-2.7.3/dfs/name
dfs.datanode.data.dir
/opt/bigdata/hadoop-2.7.3/dfs/data
dfs.web.ugi
hdfs,hadoop
dfs.permissions
false
编辑yarn-site.xml
修改如下内容
文档内容:
yarn.resourcemanager.hostname
master1
?
yarn.resourcemanager.webapp.address
master1:8088
?
yarn.resourcemanager.scheduler.address
master1:8081
?
yarn.resourcemanager.resource-tracker.address
master1:8082
?
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler
yarn.web-proxy.address
master1:54315
编辑mapred-site.xml,我们先把之前的文件模板的文件名修改下
修改如下内容
文档内容
mapreduce.framework.name
yarn
mapred.job.tracker
master1:9001
mapreduce.jobhistory.address
master:110020
slaves配置(master、slave1和slave2均作为datanode)
编辑文件
保存退出
配置系统环境(转换为root用户)
添加内容
如果没有克隆,我们将文件拷贝到另外两个节点上(已克隆可忽略)
首次启动之前格式化hdfs(克隆完成后)
查看没有错误结果
我们继续,进入到目录执行下个命令
启动成功后查看
在浏览器里输入 http://IP:50070
CentOS6.5下安装Hadoop-2.7.3(图解教程)
标签:yar 0.11 apache rmi slaves 编辑 centos6.5 oop centos
原文地址:https://www.cnblogs.com/bqwzy/p/10081046.html