码迷,mamicode.com
首页 > 其他好文 > 详细

ambari 搭建hadoop大数据平台系列2-客户机配置

时间:2017-04-04 17:53:04      阅读:222      评论:0      收藏:0      [点我收藏+]

标签:ambari hadoop hbase hive spark

 

本案例搭建的环境介绍如下:Ambari 2.4.2 + HDP 2.5 (hadoop 2.7 ;hive 1.2 ;Tez ;Spark 2.0)+jdk1.8.25 +centos7.0,这里首先要关注些注意事项,至于为什么会一一说明。


第一部分:注意事项:


版本必须低于7.2
selinux 必须关闭
firewalld 必须关闭
127.0.0.1  hosts该条记录删除
本地仓库必须搭建
root 账户ssh 启用
指定hdfs data 目录
安装jdk1.8.0
所有机器时间必须同步


1:版本必须低于7.2,这里踩了个大坑,刚开始选用了7.3,最后发现经常莫名其妙的异常,经常安装失败。后来从官方查到(没有放在最显眼的位置说明):


技术分享




2. 127.0.0.1  hosts该条记录删除 ,这也是在埋坑过后 发现的

技术分享



3.本地仓库必须搭建 ,如果不搭建本地仓库,太痛苦了。下载过程巨慢,而且每次重新来的时候,巨费时间。



4.root 账户ssh 启用  这个我也考虑过使用专门账户,虽然ambari 也支持该功能,但是需要做相应的很多更改,如果是测试机版本,还是便捷点比较好,后期可以通过ambari 的相关安全策略来补上。



5.其他的几项注意事项,大家一看就懂的,不过还是得细心检查比较好。否则后面的拍错过程会费掉很多精力




第二部分:开始配置客户端及ambari-server 


1.集群端机器分配如下:

centos7.010.1.11.1hadoop11-1
centos7.010.1.11.2hadoop11-2
centos7.010.1.11.3hadoop11-3
centos7.010.1.11.4hadoop11-4
centos7.010.1.11.5hadoop11-5
centos7.010.1.11.6hadoop11-6
centos7.010.1.11.7hadoop11-7


2.检查 centos 版本,关闭selinux ,firewalld , 添加hosts 记录,安装jdk1.8,


检查时区和时间是否统一

yum install ntp

cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime



配置root ssh 登陆

技术分享



配置jdk1.8.025 ,将jdk  解压到/usr/local/java/jdk1.8.0_112目录:

/etc/profile 文件末尾添加

#add jdk-8u112

##add for jdk

export JAVA_HOME=/usr/local/java/jdk1.8.0_112

export CLASSPATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$JAVA_HOME/lib/tools.jar

export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH



配置hosts 文件


cat /etc/hosts

10.1.11.32 localRepository-11-32  

10.1.11.10 ambari-11-10

10.1.11.1 hadoop11-1

10.1.11.2 hadoop11-2

10.1.11.3 hadoop11-3

10.1.11.4 hadoop11-4

10.1.11.5 hadoop11-5

10.1.11.6 hadoop11-6

10.1.11.7 hadoop11-7




如上,客户机的相关准备工作已经都检查完毕。下一步骤,先搭建本地仓库,以便下载。







本文出自 “好先生2020” 博客,转载请与作者联系!

ambari 搭建hadoop大数据平台系列2-客户机配置

标签:ambari hadoop hbase hive spark

原文地址:http://fuyuan2016.blog.51cto.com/8678344/1912867

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!