标签:home 激活 data val 检查 编辑模式 https x64 str
打开终端输入ifconfig查看网卡配置名字为 ens33 所以为 本机为ifcfg-ens33(各个版本系统的名字不一样)
在ROOT下通过vim /etc/sysconfig/network-scripts/ifcfg-ens33进入界面
再通过 I 进行文件修改
将BOOTROTO 修改为 static (静态获取ip)
再添加网关,子网掩码,和dns解析服务器(有没有都行)和静态ip
在vmware 的查看 网关等具体信息
修改完之后
修改完之后 按Esc 退出编辑模式
最后输入: 再输入wq进行保存退出,
输入service network restart对网络服务重启或者 reboot 进行重启
再次输入vim /etc/sysconfig/network-scripts/ifcfg-ens32可看到IP已改为静态了
在终端界面输入vim /etc/sysconfig/network
增加两行
NETWORKING=yes
HOSTNAME=hadoop1(主机名,本机为hadoop1)
修改完之后 按Esc 退出编辑模式修改完之后
最后输入:(冒号) 再输入wq进行保存退出
在终端界面输入 vim /etc/hostname
将里面清空输入自己的主机名(本机为 hadoop1)
终端输入 vim /etc/hosts
将里面修改为
Ip 与 主机名相对应
剩下两台ip便于记忆都是末位+1
(所以需要静态ip保证ip与主机名映射)
添加sudoers权限
终端输入
添加本机用户(本机为 yzy)
因为是只读文件 退出需要加! 输入 :wq! 保存退出
(1) 下载好的JDK包(可以直接从win10桌面拖拽到虚拟机里面
确保文件是完整的 右下方可以看到文件大小与原文件差不多)
放到新创建的hadoop文件夹里
安装之前需要先将自带的open jdk 删除
(2)解压 jdk
需要先在终端里 进入压缩包目录
终端输入 tar -zxvf jdk-8u221-linux-x64.tar.gz(jdk-8u221-linux-x64.tar.gz 为压缩包名字 本机为jdk-8u221-linux-x64.tar.gz)
(3)配置环境变量
进入root下输入 vim /etc/profile
输入指令
export JAVA_HOME=/home/yzy/hadoop/jdk1.8.0_221 (为jdk的路径) (yzy为本机用户不能少 )
export PATH=$JAVA_HOME/bin:$PATH
exportCLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
(4)检查jdk安装成功
终端输入 source /etc/profile
激活环境
然后输入 java -version 进行检查
1)不能联网的情况下:
手动指定 date –s 时间
2)能联网的情况下:
找一个公网中公用的时间服务器 ntpdate 公网时间服务器地址
ntpdate ntp1.aliyun.com
(本机时间同步不需要进行此步)
解压完成
输入 sudo vi /etc/profile
最后添加
export HADOOP_HOME=/home/yzy/Hadoop/hadoop-2.7.7
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
终端输入 source /etc/profile
激活环境
进入 hadoop-2.7.7/etc/hadoop
在最后一行添加 export JAVA_HOME=/home/yzy/hadoop/jdk1.8.0_221
进入 hadoop2.7.7/etc/Hadoop
添加
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop01:9000</value>
<description>hdfs的主节点</description>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hadoopdata</value> //一定要配置在有限权的目录下
<description>存放临时文件的目录</description>(可删除)
</property>
同一目录 hadoop2.7.7/etc/Hadoop
添加
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/yzy/Hadoop/hadoopdata/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/yzy/Hadoop/hadoopdata/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.secondary.http.address</name>
<value>hadoop2:50090</value>
</property>
</configuration>
修改为
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop1</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
修改为
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
修改为
hadoop1
hadoop2
hadoop3
~
首先将之前的虚拟机进行关机(可先保存快照避免关机损坏问题)
等待克隆完成
需要几个重复几次
本次我的任务要求为3台,只需要克隆两次就好
分别命名为 hadoop1,hadoop2,hadoop3
需要分别进入两个虚拟机 修改ip和主机名
回到上面步骤进行修改 (注意主机名和ip应该与hosts文件中的映射相对应)
输入 ssh-copy-id hadoop1 (主机名) (这是发送给自己本身)
(hadoop2/hadoop3)
各个节点相互之间都发送公钥(远程登录或者发送 其他虚拟机要同时开启)
远程登录本机
输入 ssh hadoop1
(必须在namenode的节点操作)
(不要多次初始化 ,否则 参考 DATANODE没有出现
https://blog.csdn.net/chen_xsi/article/details/82717727 )
本机为hadoop1
输入 hadoopnamenode -format
启动集群(三台机器都要开启)
输入 start-dfs.sh 可以在任意节点执行
用jps命令查看进程
输入 start-yarn.sh
jps查看各节点的进程
hdfs hadoop01:50070
yarn hadoop01:8088
stop-yarn.sh
stop-dfs.sh
标签:home 激活 data val 检查 编辑模式 https x64 str
原文地址:https://www.cnblogs.com/wsyzyyzy/p/11623749.html