码迷,mamicode.com
首页 > 其他好文 > 详细

cloudera vm 5.4.2 如何启动hadoop各项服务

时间:2015-09-19 15:12:55      阅读:230      评论:0      收藏:0      [点我收藏+]

标签:

cloudera vm 5.4.2  如何启动hadoop各项服务

 

1. 安装位置 
/usr/lib
hadoop
spark
Hbase
hive
impala
mahout
2.自动启动
第一个进程 init , 读取 inittab ->runlevel 5
 
启动第六步--init进程执行rc.sysinit
在设定了运行等级后,Linux系统执行的第一个用户层文件就是/etc/rc.d/rc.sysinit脚本程序,它做的工作非常多,包括设定PATH、设定网络配置(/etc/sysconfig/network)、启动swap分区、设定/proc等等。
启动第七步--启动内核模块
具体是依据/etc/modules.conf文件或/etc/modules.d目录下的文件来装载内核模块。
启动第八步--执行不同运行级别的脚本程序
根据运行级别的不同,系统会运行rc0.d到rc6.d中的相应的脚本程序,来完成相应的初始化工作和启动相应的服务。
启动第九步--执行/etc/rc.d/rc.local
rc.local就是在一切初始化工作后,Linux留给用户进行个性化的地方。你可以把你想设置和启动的东西放到这里。
 
 
3. rc5.d  启动cloudera的各项服务
hadoop spark的各项服务都在这里,随机启动。
每个链接的名字都是以S或者K开头的,S开头的表示是系统启动是要随机启动的,K开头的是不随机启动的。
如果我要哪个服务随机启动,就把它名字第一个字母K改成S就可以了,当然,把S改成K后,这个服务就不能随机启动了。
 
 
 
参考:
 

cloudera vm 5.4.2 如何启动hadoop各项服务

标签:

原文地址:http://www.cnblogs.com/GrantYu/p/4821412.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!