标签:des http io os 使用 ar for 文件 sp
第一部分:Hadoop Bin
后面根据项目的实际需要Hadoop Bin 包括:
Hadoop hadoop的Shell
hadoop-config.sh 它的作用是对一些变量进行赋值
HADOOP_HOME(hadoop的安装目录)。
HADOOP_CONF_DIR(hadoop的配置文件目录)。HADOOP_SLAVES(--hosts指定的文件的地址)
hadoop-daemon.sh 单节点启动
hadoop-daemons.sh 启动slaves.sh和hadoop-daemon.sh
start-all.sh 启动HDFS与MapReduce
start-balancer.sh 启动Hadoop的负载均衡
start-dfs.sh 启动HDFS
start-jobhistoryserver.sh
start-mapred.sh 启动MapReduce
来进行调整。
后面根据项目的实际需要Hadoop Bin 包括:
Hadoop hadoop的Shell
hadoop-config.sh 它的作用是对一些变量进行赋值
HADOOP_HOME(hadoop的安装目录)。
HADOOP_CONF_DIR(hadoop的配置文件目录)。
HADOOP_SLAVES(--hosts指定的文件的地址)
hadoop-daemon.sh 单节点启动
hadoop-daemons.sh 在所有slaves上运行相同的脚本hadoop-daemon.sh
start-all.sh 启动HDFS与MapReduce
start-balancer.sh 启动Hadoop的负载均衡
start-dfs.sh 启动HDFS
start-jobhistoryserver.sh
start-mapred.sh 启动MapReduce
来进行调整。
stop-all.sh 停止HDFS与MapReduce
stop-balancer.sh 停止做负载均衡
stop-dfs.sh 停止HDFS
stop-jobhistoryserver.sh 停止Job追踪
stop-mapred.sh 停止MapReduce
task-controller
第二部分:Hadoop Shell 基本操作
nHadoop shell
包括:
文章转自:http://www.aboutyun.com/thread-6742-1-1.html
标签:des http io os 使用 ar for 文件 sp
原文地址:http://www.cnblogs.com/likehua/p/3999560.html