码迷,mamicode.com
首页 > 系统相关 > 详细

Hadoop学习第五次:HDFS的Shell命令

时间:2014-12-10 21:09:33      阅读:219      评论:0      收藏:0      [点我收藏+]

标签:ar   使用   sp   文件   div   art   bs   ad   ef   

调用文件系统(FS)Shell命令应使用 bin/hadoop fs 的形式。所有的FS shell命令使用URI路径作为参数。URI格式是scheme://authority/path。HDFS的scheme是hdfs,对本地文件系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。例如:/parent/child可以表示成hdfs://namenode:namenodePort/parent/child,或者更简单的/parent/child(假设配置文件namenode:namenodePort)大多数FS Shell命令的行为和对应的Unix Shell命令类似。
bubuko.com,布布扣-help [cmd]  //显示命令的帮助信息
bubuko.com,布布扣-ls(r) <path>  //显示当前目录下所有文件
bubuko.com,布布扣-du(s) <path>  //显示目录中所有文件大小
bubuko.com,布布扣-count[-q] <path>  //显示目录中文件数量
bubuko.com,布布扣-mv <src> <dst>  //移动多个文件到目标目录
bubuko.com,布布扣-cp <src> <dst>  //复制多个文件到目标目录
bubuko.com,布布扣-rm(r)  //删除文件(夹)
bubuko.com,布布扣-put <localsrc> <dst>  //本地文件复制到hdfs
bubuko.com,布布扣-copyFromLocal  //同put
bubuko.com,布布扣-moveFromLocal  //从本地文件移动到hdfs
bubuko.com,布布扣-get [-ignoreCrc] <src> <localdst>  //复制文件到本地,可以忽略crc校验
bubuko.com,布布扣-getmerge <src> <localdst>  //将源目录中的所有文件排序合并到一个文件中
bubuko.com,布布扣-cat <src>  //在终端显示文件内容
bubuko.com,布布扣-text <src>  //在终端显示文件内容
bubuko.com,布布扣-copyToLocal [-ignoreCrc] <src> <localdst>  //复制到本地
bubuko.com,布布扣-moveToLocal <src> <localdst>
bubuko.com,布布扣-mkdir <path>  //创建文件夹
-touchz <path>  //创建一个空文件
 

Hadoop学习第五次:HDFS的Shell命令

标签:ar   使用   sp   文件   div   art   bs   ad   ef   

原文地址:http://www.cnblogs.com/carol19910211/p/4156224.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!