码迷,mamicode.com
首页 > 其他好文 > 详细

HDFS使用

时间:2014-06-10 12:40:13      阅读:275      评论:0      收藏:0      [点我收藏+]

标签:des   c   style   class   java   a   

1  HDFS概述
HDFS是Hadoop应用用到的一个最主要的分布式存储系统。一个HDFS集群主要由一个NameNode和很多个Datanode组成:Namenode管理文件系统的元数据,而Datanode存储 了实际的数据。本文档主要关注用户以及管理员怎样和HDFS进行交互。基本上,客户端联系Namenode以获取文件的元数据或修饰属性,而真正的文件I/O操作是直接和Datanode进行交互的。本文档从介绍如何安装和搭建HDFS集群入手,接着常用的文件系统命令,以及维护过程中涉及到的控制命令。
2          HDFS集群部署
2.1        安装
1)       用户从hadoop官 方网站下载所需版本的安装文件,下载地址为:http://hadoop.apache.org/core/releases.html#Download; 本文档选取的版本为hadoop-0.19.1;
2)       将下载的压缩文件解压,目录为./hadoop-0.19.1,按照附录《hdfs 测试组网方案》中系统参数配置部分,修改./hadoop-0.19.1/conf中的文件;
3)       检查所有服务器上是否安装了J2sdk,要求版本为1.5及以 上;并建立安装目录到/usr/local/j2sdk的软 链接;
4)       将hadoop目 录上传到所有的服务器,放置在${HADOOP_HOME}目录 下;
5)       挂载namenode和secondary namenode的fsimage,editslogs备份 目录;
2.2        启动
1)       进入namenode的${HADOOP_HOME};
2)       格式化namenode文 件系统,执行命令:bin/hadoop namenode –format;
3)       启动hdfs, 执行命令:bin/start-dfs.sh。该 脚本首先启动namenode,然 后读取./conf/slaves中的datanode列表,逐个启动;最后读取./conf/masters中secondary namenode地址,启动secondary namenode。
启动datanode和secondary namenode时, 脚本通过ssh从当前机器登录到其他节点的,涉及到身份验 证,需要输入相应的密码信息,比较繁琐。可参考ssh中免 密码登录解决方法。
3          FS Shell使用指南
调用文件系统(FS)Shell命令 应使用 bin/hadoop fs <args>的形 式。 所有 的的FS shell命令 使用URI路径 作为参数。URI格式 是scheme://authority/path。对HDFS文件系统,scheme是hdfs, 对本地文件系统,scheme是file。 其中scheme和authority参数 都是可选的,如果未加指定,就会使用配置中指定的默认scheme。 一个HDFS文件 或目录比如/parent/child可以表示成hdfs://namenode:namenodeport/parent/child, 或者更简单的/parent/child(假 设你配置文件中的默认值是namenode:namenodeport)。 大多数FS Shell命令 的行为和对应的Unix Shell命 令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout。

3.1        cat
使用方法:hadoop fs -cat URI [URI …]
将路 径指定文件的内容输出到stdout。
示 例:
         hadoop fs -cat hdfs://host1bubuko.com,布布扣ort1/file1 hdfs://host2bubuko.com,布布扣ort2/file2
         hadoop fs -cat file:///file3 /user/hadoop/file4
返回 值:
成 功返回0, 失败返回-1。
3.2        chgrp
使用方法:hadoop fs -chgrp [-R] GROUP URI [URI …] Change group association of files. With -R, make the change recursively through the directory structure. The user must be the owner of files, or else a super-user. Additional information is in the Permissions User Guide.改变文件所属的组。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。更多的信息请参见HDFS权限用户指南。
3.3        chmod
使用方法:hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI …]
改变 文件的权限。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超 级用户。更多的信息请参见HDFS权 限用户指南。
3.4        chown
使用方法:hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
改变 文件的拥有者。使用-R将使改变在目录结构下递归进行。命令的使用 者必须是超级用户。更多的信息请参见HDFS权限用户指南。
3.5        copyFromLocal
使用方法:hadoop fs -copyFromLocal <localsrc> URI
除了限定源路径是一个本地文件外, 和put命令相似。
3.6        copyToLocal
使用方法:hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
除了 限定目标路径是一个本地文件外,和get命令类似。
3.7        cp
使用方法:hadoop fs -cp URI [URI …] <dest>
将文 件从源路径复制到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。
示 例:
         hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
         hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
返回 值:
成功返回0, 失败返回-1。
3.8        du
使用方法:hadoop fs -du URI [URI …]
显示 目录中所有文件的大小,或者当只指定一个文件时,显示此文件的大小。示例:
hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://hostbubuko.com,布布扣ort/user/hadoop/dir1 
返回 值:
成功返回0, 失败返回-1。 
3.9        dus
使用方法:hadoop fs -dus <args>
显示 文件的大小。
3.10    expunge
使用方法:hadoop fs -expunge
清空 回收站。请参考HDFS设计文 档以获取更多关于回收站特性的信息。
3.11    get
使用方法:hadoop fs -get [-ignorecrc] [-crc] <src> <localdst> 
复制 文件到本地文件系统。可用-ignorecrc选项复制CRC校验失败的文件。使用-crc选项复制文件以及CRC信息。
示 例:
         hadoop fs -get /user/hadoop/file localfile
         hadoop fs -get hdfs://hostbubuko.com,布布扣ort/user/hadoop/file localfile
返回 值:
成功返回0, 失败返回-1。
3.12    getmerge
使用方法:hadoop fs -getmerge <src> <localdst> [addnl]
接受 一个源目录和一个目标文件作为输入,并且将源目录中所有的文件连接成本地目标文件。addnl是 可选的,用于指定在每个文件结尾添加一个换行符。
3.13    ls
使用方法:hadoop fs -ls <args>
如果 是文件,则按照如下格式返回文件信息:
文件名 <副 本数> 文 件大小 修改日期 修 改时间 权限 用 户ID 组ID 
如果 是目录,则返回它直接子文件的一个列表,就像在Unix中一 样。目录返回列表的信息如下:
目录名 <dir> 修改日期 修 改时间 权限 用 户ID 组ID 
示 例:
hadoop fs -ls /user/hadoop/file1 /user/hadoop/file2 hdfs://hostbubuko.com,布布扣ort/user/hadoop/dir1 /nonexistentfile 
返回 值:
成功返回0, 失败返回-1。 
3.14    lsr
使用方法:hadoop fs -lsr <args> 
ls命令的递归版本。类似于Unix中的ls -R。
3.15    mkdir
使用方法:hadoop fs -mkdir <paths> 
接受 路径指定的uri作为参数,创建这些目录。其行为类似于Unix的mkdir -p,它 会创建路径中的各级父目录。
示 例:
         hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
         hadoop fs -mkdir hdfs://host1bubuko.com,布布扣ort1/user/hadoop/dir hdfs://host2bubuko.com,布布扣ort2/user/hadoop/dir
返回 值:
成功返回0, 失败返回-1。
3.16    movefromLocal
使用方法:dfs -moveFromLocal <src> <dst>
输出 一个”not implemented“信 息。
3.17    mv
使用方法:hadoop fs -mv URI [URI …] <dest>
将文 件从源路径移动到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。不允许在不同的文件系统间移动文件。不支持文件夹重命令。
示 例:
         hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2
         hadoop fs -mv hdfs://hostbubuko.com,布布扣ort/file1 hdfs://hostbubuko.com,布布扣ort/file2 hdfs://hostbubuko.com,布布扣ort/file3 hdfs://host:port/dir1
返回 值:
成功返回0, 失败返回-1。
3.18    put
使用方法:hadoop fs -put <localsrc> ... <dst>
从本 地文件系统中复制单个或多个源路径到目标文件系统。也支持从标准输入中读取输入写入目标文件系统。
         hadoop fs -put localfile /user/hadoop/hadoopfile
         hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
         hadoop fs -put localfile hdfs://host:port/hadoop/hadoopfile
         hadoop fs -put - hdfs://host:port/hadoop/hadoopfile 
从 标准输入中读取输入。
返回 值:
成功返回0, 失败返回-1。
3.19    rm
使用方法:hadoop fs -rm URI [URI …]
删除 指定的文件。只删除非空目录和文件。请参考rmr命令 了解递归删除。
示 例:
         hadoop fs -rm hdfs://host:port/file /user/hadoop/emptydir
返回 值:
成功返回0, 失败返回-1。
3.20    rmr
使用方法:hadoop fs -rmr URI [URI …]
delete的递归版本。
示 例:
         hadoop fs -rmr /user/hadoop/dir
         hadoop fs -rmr hdfs://host:port/user/hadoop/dir
返回 值:
成功返回0, 失败返回-1。
3.21    setrep
使用方法:hadoop fs -setrep [-R] <path>
改变 一个文件的副本系数。-R选项用于递归改变目录下所有文件的副本系数。
示 例:
         hadoop fs -setrep -w 3 -R /user/hadoop/dir1
返回 值:
成功返回0, 失败返回-1。
3.22    stat
使用方法:hadoop fs -stat URI [URI …]
返回 指定路径的统计信息。
示 例:
         hadoop fs -stat path
返回 值:
成功返回0, 失败返回-1。
3.23    tail
使用方法:hadoop fs -tail [-f] URI
将文 件尾部1K字节的内容输出到stdout。支持-f选 项,行为和Unix中一致。
示 例:
         hadoop fs -tail pathname
返回 值:
成 功返回0, 失败返回-1。
3.24    test
使用方法:hadoop fs -test -[ezd] URI
选 项:
-e 检查文件是否存在。如果存在则返回0。
-z 检查文件是否是0字 节。如果是则返回0。
-d 如果路径是个目录,则返回1,否则返回0。
示 例:
         hadoop fs -test -e filename
3.25    text
使用方法:hadoop fs -text <src> 
将源 文件输出为文本格式。允许的格式是zip和TextRecordInputStream。
3.26    touchz
使用方法:hadoop fs -touchz URI [URI …] 
创建 一个0字节的空文件。
示 例:
         hadoop -touchz pathname
返回 值:
成 功返回0, 失败返回-1。


4         命 令手册
4.1        概述
所有 的hadoop命令均由bin/hadoop脚本引发。不指定参数运行hadoop脚本会打印所有命令的描述。
用法:hadoop [--config confdir] [COMMAND] [GENERIC_OPTIONS] [COMMAND_OPTIONS]
Hadoop有一个选项解析框架用于解析一般的选项和运行类。
命令选项        描述
--config confdir        覆盖缺省配置目录。缺省是${HADOOP_HOME}/conf。
GENERIC_OPTIONS        多个命令都支持的通用选项。
COMMAND 
命令选项S        各种各样的命令和它们的选项会在下面提到。这些命令被分为 用户命令 管理命令两组。

4.1.1   常规选项
下面 的选项被 dfsadmin, fs, fsck和 job支 持。 应用程序要实现 Tool来支 持 常规选项。
GENERIC_OPTION        描述
-conf <configuration file>        指定应用程序的配置文件。
-D <property=value>        为指定property指定值value。
-fs <local|namenode:port>        指定namenode。
-jt <local|jobtracker:port>        指定job tracker。只适用于job。

-files <逗号分隔的文件列表>        指定要拷贝到map reduce集群的文件的逗号分隔的列表。 只适用于job。

-libjars <逗号分隔的jar列表>        指定要包含到classpath中的jar文件的逗号分隔的列表。 只适用于job。

-archives <逗号分隔的archive列表>        指定要被解压到计算节点上的档案文件的逗号分割的列表。 只适用于job。


4.2        用户命令
hadoop集群用户的常用命令。
4.2.1   archive
创 建一个hadoop档案文件。参考 Hadoop Archives.
用法:hadoop archive -archiveName NAME <src>* <dest>
命令选项        描述
-archiveName NAME        要创建的档案的名字。
src        文件系统的路径名,和通常含正则表达的一样。
dest        保存档案文件的目标目录。
4.2.2   distcp
递归地拷贝文件或目录。参考DistCp指南以获取等多信息。
用法:hadoop distcp <srcurl> <desturl>
命令选项        描述
srcurl        源Url
desturl        目标Url
4.2.3   fs
用法:hadoop fs [GENERIC_OPTIONS] [COMMAND_OPTIONS]
运行一个常规的文件系统客户 端。
各种命令选项可以参考HDFS Shell指南。
4.2.4   fsck
运行HDFS文件系统检查工具。参考Fsck了解更多。
用法:hadoop fsck [GENERIC_OPTIONS] <path> [-move | -delete | -openforwrite] [-files [-blocks [-locations | -racks]]]
命令选项        描述
<path>        检查的起始目录。
-move        移动受损文件到/lost+found
-delete        删除受损文件。
-openforwrite        打印出写打开的文件。
-files        打印出正被检查的文件。
-blocks        打印出块信息报告。
-locations        打印出每个块的位置信息。
-racks        打印出data-node的网络拓扑结构。
4.2.5   jar
运行jar文件。用户可以把他们的Map Reduce代码捆绑到jar文件中,使用这个命令执行。
用法:hadoop jar <jar> [mainClass] args...
streaming作业是通过这个命令执行的。参考Streaming examples中的例子。
Word count例子也是通过jar命令运行的。参考Wordcount example。
4.2.6   job
用于和Map Reduce作业交互和命令。
用法:hadoop job [GENERIC_OPTIONS] [-submit <job-file>] | [-status <job-id>] | [-counter <job-id> <group-name> <counter-name>] | [-kill <job-id>] | [-events <job-id> <from-event-#> <#-of-events>] | [-history [all] <jobOutputDir>] | [-list [all]] | [-kill-task <task-id>] | [-fail-task <task-id>]
命令选项        描述
-submit <job-file>        提交作业
-status <job-id>        打印map和reduce完成百分比和所有计数器。
-counter <job-id> <group-name> <counter-name>        打印计数器的值。
-kill <job-id>        杀死指定作业。
-events <job-id> <from-event-#> <#-of-events>        打印给定范围内jobtracker接收到的事件细节。
-history [all] <jobOutputDir>        -history <jobOutputDir> 打印作业的细节、失败及被杀死原因的细节。更多的关于一个作业的细 节比如成功的任务,做过的任务尝试等信息可以通过指定[all]选项查看。
-list [all]        -list all显示所有作业。-list只显示将要完成的作业。
-kill-task <task-id>        杀死任务。被杀死的任务不会不利于失败尝试。
-fail-task <task-id>        使任务失败。被失败的任务会对失败尝试不利。
4.2.7   pipes
运行pipes作业。
用法:hadoop pipes [-conf <path>] [-jobconf <key=value>, <key=value>, ...] [-input <path>] [-output <path>] [-jar <jar file>] [-inputformat <class>] [-map <class>] [-partitioner <class>] [-reduce <class>] [-writer <class>] [-program <executable>] [-reduces <num>]
命令选项        描述
-conf <path>        作业的配置
-jobconf <key=value>, <key=value>, ...        增加/覆 盖作业的配置项
-input <path>        输入目录
-output <path>        输出目录
-jar <jar file>        Jar文件名
-inputformat <class>        InputFormat类
-map <class>        Java Map类
-partitioner <class>        Java Partitioner
-reduce <class>        Java Reduce类
-writer <class>        Java RecordWriter
-program <executable>        可执行程序的URI
-reduces <num>        reduce个数
4.2.8   version
打印版本信息。
用法:hadoop version
4.2.9   CLASSNAME
hadoop脚本可 用于调调用任何类。
用法:hadoop CLASSNAME
运行名字为CLASSNAME的类。

4.3        管理命令
hadoop集群管 理员常用的命令。
4.3.1   balancer
运行集群平衡工具。管理员可以 简单的按Ctrl-C来停止平衡过程。参考Rebalancer了解更多。
用法:hadoop balancer [-threshold <threshold>]
命令选项        描述
-threshold <threshold>        磁盘容量的百分比。这会覆盖缺省的阀值。
4.3.2   daemonlog
获 取或设置每个守护进程的日志级别。
用 法:hadoop daemonlog -getlevel <host:port> <name> 
用 法:hadoop daemonlog -setlevel <host:port> <name> <level>
命令选项        描述
-getlevel <host:port> <name>        打印运行在<host:port>的守护进程的日志级别。这个命令内部会连接http://<host:port>/logLevel?log=<name>
-setlevel <host:port> <name> <level>        设置运行在<host:port>的守护进程的日志级别。这个命令内部会连接http://<host:port>/logLevel?log=<name>
4.3.3   datanode
运 行一个HDFS的datanode。
用法:hadoop datanode [-rollback]
命令选项        描述
-rollback        将datanode回滚到前一个版本。这需要在停止datanode,分发老的hadoop版本之后使用。
4.3.4   dfsadmin
运 行一个HDFS的dfsadmin客户端。
用法:hadoop dfsadmin [GENERIC_OPTIONS] [-report] [-safemode enter | leave | get | wait] [-refreshNodes] [-finalizeUpgrade] [-upgradeProgress status | details | force] [-metasave filename] [-setQuota <quota> <dirname>...<dirname>] [-clrQuota <dirname>...<dirname>] [-help [cmd]]
命令选项        描述
-report        报告文件系统的基本信息和统计信息。
-safemode enter | leave | get | wait        安全模式维护命令。安全模式是Namenode的一个状态,这种状态下,Namenode 
1. 不接受对名字空间的更改(只读)
2. 不复制或删除块
Namenode会在启动时自动进入安全模式,当配置的块最小百分比数满足最小的副本数条件时,会自动离开安全模式。安全模式可以手 动进入,但是这样的话也必须手动关闭安全模式。
-refreshNodes        重新读取hosts和exclude文件,更新允许连到Namenode的或那些需要退出或入编的Datanode的集合。
-finalizeUpgrade        终结HDFS的升级操作。Datanode删除前一个版本的工作目录,之后Namenode也这样做。这个操作完结整个升级过程。
-upgradeProgress status | details | force        请求当前系统的升级状态,状态的细节,或者强制升级操作进行。
-metasave filename        保存Namenode的主要数据结构到hadoop.log.dir属性指定的目录下的<filename>文件。对于下面的每一项,<filename>中都会一行内容与之对应
1. Namenode收到的Datanode的心跳信号
2. 等待被复制的块
3. 正在被复制的块
4. 等待被删除的块
-setQuota <quota> <dirname>...<dirname>        为每个目录 <dirname>设定配额<quota>。目录配额是一个长整型整数,强制限定了目录树下的名字个数。
命令会在这个目录上工作良好,以下情况会报错:
1. N不是一个正整数,或者
2. 用户不是管理员,或者
3. 这个目录不存在或是文件,或者
4. 目录会马上超出新设定的配额。
-clrQuota <dirname>...<dirname>        为每一个目录<dirname>清除配额设定。
命令会在这个目录上工作良好,以下情况会报错:
1. 这个目录不存在或是文件,或者
2. 用户不是管理员。
如果目录原来没有配额不会报错。
-help [cmd]        显示给定命令的帮助信息,如果没有给定命令,则显示所有命令的帮 助信息。
4.3.5   jobtracker
运 行MapReduce job Tracker节点。
用法:hadoop jobtracker
4.3.6   namenode
运 行namenode。有关升级,回滚,升级终结的更多信息请参考升级和回滚。
用法:hadoop namenode [-format] | [-upgrade] | [-rollback] | [-finalize] | [-importCheckpoint]
命令选项        描述
-format        格式化namenode。它启动namenode,格式化namenode,之后关闭namenode。
-upgrade        分发新版本的hadoop后,namenode应以upgrade选项启动。
-rollback        将namenode回滚到前一版本。这个选项要在停止集群,分发老的hadoop版 本后使用。
-finalize        finalize会删除文件系统的前一状态。最近的 升级会被持久化,rollback选项将再不可用,升级终结操作之后,它会停掉namenode。
-importCheckpoint        从检查点目录装载镜像并保存到当前 检查点目录,检查点目录由fs.checkpoint.dir指定。
4.3.7   secondarynamenode
运 行HDFS的secondary namenode。 参考Secondary Namenode了 解更多。
用法:hadoop secondarynamenode [-checkpoint [force]] | [-geteditsize]
命令选项        描述
-checkpoint [force]        如果EditLog的大小 >= fs.checkpoint.size,启动Secondary namenode的 检查点过程。 如果使用了-force,将不考虑EditLog的 大小。
-geteditsize        打印EditLog大小。
4.3.8   tasktracker
运行MapReduce的task Tracker节点。
用法:hadoop tasktracker

HDFS使用,布布扣,bubuko.com

HDFS使用

标签:des   c   style   class   java   a   

原文地址:http://www.cnblogs.com/scwanglijun/p/3778890.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!