标签:本地 dir nbsp use regexp 用户 hdfs 使用 rom
编程实现以下指定功能,并利用Hadoop提供的Shell命令完成相同任务:
1.在本地Linux文件系统的“/home/hadoop/”目录下创建一个文件txt,里面可以随意输入一些单词.
cd /usr/local/hadoop
touch flie.txt
gedit file.txt
2.在本地查看文件位置(ls)
ls -al
3.在本地显示文件内容
cat flie.txt
4.使用命令把本地文件系统中的“txt”上传到HDFS中的当前用户目录的input目录下。
./sbin/start-dfs.sh
./bin/hdfs dfs -mkdir -p /user/hadoop
./bin/hdfs dfs -mkdir input
./bin/hdfs dfs -put ./file.txt input
5.查看hdfs中的文件(-ls)
.
显示hdfs中该的文件内容
./bin/hdfs dfs -cat input/flie.txt
7.删除本地的txt文件并查看目录
.
8.从hdfs中将txt下载地本地原来的位置。
./bin/hdfs dfs -get input/flie.txt ~/hadoop
9.从hdfs中删除txt并查看目录
./bin/hdfs dfs -rm -r /input/flie.txt
./bin/hdfs dfs -ls
if $(hdfs dfs -test -e text.txt);
then $(hdfs dfs -appendToFile local.txt text.txt);
else $(hdfs dfs -copyFromLocal -f local.txt text.txt);
fiif $(hdfs dfs -test -e file:///home/hadoop/text.txt);
then $(hdfs dfs -copyToLocal text.txt ./text2.txt);
else $(hdfs dfs -copyToLocal text.txt ./text.txt);
fiif $(hdfs dfs -test -d dir1/dir2);
then $(hdfs dfs -touchz dir1/dir2/filename);
else $(hdfs dfs -mkdir -p dir1/dir2 && hdfs dfs -touchz dir1/dir2/filename);
fi
hdfs dfs -rm dir1/dir2/filenamehdfs dfs -mkdir -p dir1/dir2
hdfs dfs -rmdir dir1/dir2
hdfs dfs -rm -R dir1/dir2hdfs dfs -appendToFile local.txt text.txt
hdfs dfs -get text.txt
cat text.txt >> local.txt
hdfs dfs -copyFromLocal -f text.txt text.txthdfs dfs -rmdir dir1/dir2
hdfs dfs -rm -R dir1/dir2
标签:本地 dir nbsp use regexp 用户 hdfs 使用 rom
原文地址:https://www.cnblogs.com/yjwamao/p/8946173.html