码迷,mamicode.com
首页 > 其他好文 > 详细

Hadoop文件的基本操作

时间:2014-12-05 12:46:47      阅读:171      评论:0      收藏:0      [点我收藏+]

标签:hadoop   hdfs读写   


Hadoop提供了大量的API对文件系统中的文件进行操作,主要包括:

(1)读取文件

(2)写文件

(3)读取文件属性

(4)列出文件

(5)删除文件


1?读取文件

以下示例中,将hdfs中的一个文件读取出来,并输出到标准输出流中。

package org.jediael.hadoopdemo.fsdemo;

import java.io.IOException;
import java.net.URI;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;

public class FileSystemDoubleCat {

	public static void main(String[] args) throws IOException {

		String fileName = args[0];
		Configuration conf = new Configuration();

		FileSystem fs = FileSystem.get(URI.create(fileName), conf);
		FSDataInputStream in = null;
		try {
			in = fs.open(new Path(fileName));
			IOUtils.copyBytes(in, System.out, 4096, false);
			in.seek(0);
			IOUtils.copyBytes(in, System.out, 4096, false);
		} finally {
			in.close();
		}

	}

}
(1)其中FSDataInputStream实现了Seekable接口,可以对文件进行随机定位,但注意,seek()的代价较高,如无必要,尽量少使用。


Hadoop文件的基本操作

标签:hadoop   hdfs读写   

原文地址:http://blog.csdn.net/jediael_lu/article/details/41745405

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!