码迷,mamicode.com
首页 > 其他好文 > 详细

Hadoop(三)——核心之一HDFS

时间:2015-08-28 00:50:42      阅读:163      评论:0      收藏:0      [点我收藏+]

标签:hadoop   hdfs   namenode   datanode   

    上篇讲述了Hadoop分布式集群环境的搭建,其实重要是HDFS分布式文件系统的搭建,MapReduce主要是需要我们程序员来进行编写算法来进行逻辑运算的。这篇就重点来讲述一下HDFS

HadoopDistribute File System,也就是Hadoop分布式文件系统)。


     一、HDFS的主要设计理念:


     1、存储超大文件,这里的“超大文件”是指几百MBGB甚至TBPB级别的文件。

     2、最高效的访问模式是 一次写入、多次读取(流式数据访问),HDFS存储的数据集作为hadoop的分析对象。在数据集生成后,长时间在此数据集上进行各种分析。每次分析都将设计该数据集的大部分数据甚至全部数据,因此读取整个数据集的时间延迟比读取第一条记录的时间延迟更重要。

     3、运行在普通廉价的服务器上,HDFS设计理念之一就是让它能运行在普通的硬件之上,即便硬件出现故障,也可以通过容错策略来保证数据的高可用。

 

    二,HDFS的体系结构:

技术分享


简述:

    数据块(block):大文件会被分割成多个block进行存储,block大小默认为64MB。每一个block会在多个datanode上存储多份副本,默认是3份。


    namenode:1,负责管理文件目录、文件和block的对应关系以及block和datanode的对应关系还有datanode的副本信息,2,协调客户端对文件的访问,3,记录命名空间内的改动或本身属性的改变;4,使用事务日志记录HDFS元数据的变化,使用映像文件存储文件系统的命名空间,包括文件映射文件属性。


    datanode:datanode就负责存储了,当然大部分容错机制都是在datanode上实现的,一次写入多次读取不修改。

 

三,HDFS读写操作图:

      1,读取数据流程:

客户端要访问HDFS中的一个文件

首先从namenode获得组成这个文件的数据块位置列表

根据列表知道存储数据块的datanode

访问datanode获取数据

Namenode并不参与数据实际传输

技术分享


     2,写入数据流程:

        客户端请求namenode创建新文件

客户端将数据写入DFSOutputStream

建立pipeline依次将目标数据块写入各个datanode,建立多个副本

技术分享


 四,HDFS高可靠性原由,很容易理解:

冗余副本策略

机架策略

心跳机制

安全模式

校验和

回收站

元数据保护

快照机制

 

 五,HDFS文件操作方法:


      1linux命令行操作:

         列出HDFS下的文件: ./bin/hadoop fs -ls [文件夹目录名]

         上传文件到HDFS:    ./bin/hadoop fs -put [上传文件路劲+名字]  [指定要上传的hadoop路径]

         复制到本地文件:./bin/hadoop fs -get  [hadoop中文件路劲+名字]    [本地文件夹]

         删除HDFS下的文件:./bin/hadoop fs -rmr [hadoop文件路径+名字]

         查看HDFS的基本统计信息: ./bin/hadoop dfsadmin -report


      2,API编程:这个就需要我们看HadoopAPI文档来进行Java开发的调用,然后实现文件的各种操作,给一个hadoopapi链接:http://hadoop.apache.org/docs/r1.2.1/api/index.html 

这里看书上的两个小例子:

     

    将输入的文件中的内容输出到屏幕上:

	package HDFS;
	
	import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
	import org.apache.hadoop.io.IOUtils;
	import java.io.InputStream;
	import java.net.URL;
	
	/**
	 * 将文件的内容打印到屏幕上
	 * @author Administrator
	 *
	 */
	public class URLCat {
		static {
			URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
		}
	
		//main方法
		public static void main(String[] args) throws Exception {
			//输入流
			InputStream in = null;
			try {
				in = new URL(args[0]).openStream();
				//将输入文件的内容输出到system.out,也就是屏幕上
				IOUtils.copyBytes(in, System.out, 4096, false);
			} finally {
				IOUtils.closeStream(in);
			}
		}
	}


      对一个文件的创建,写入,读取内容

	package HDFS;
	
	import java.io.IOException;
	import org.apache.hadoop.conf.Configuration;
	import org.apache.hadoop.fs.FSDataInputStream;
	import org.apache.hadoop.fs.FSDataOutputStream;
	import org.apache.hadoop.fs.FileSystem;
	import org.apache.hadoop.fs.Path;
	
	/**
	 * 利用HDFS的API,使用Java编写文件创建,写入,读取
	 * @author Administrator
	 *
	 */
	public class HDFSJavaAPIDemo {
		
		public static void main(String[] args) throws IOException {
			Configuration conf = new Configuration();
			FileSystem fs = FileSystem.get(conf);
			
			System.out.println(fs.getUri());
			
			Path file = new Path("demo.txt");
			
			if (fs.exists(file)) {
				System.out.println("File exists.");
			} else {
				// Writing to file
				FSDataOutputStream outStream = fs.create(file);
				outStream.writeUTF("Welcome to HDFS Java API!!!");
				outStream.close();
			}
			// Reading from file
			FSDataInputStream inStream = fs.open(file);
			String data = inStream.readUTF();
			System.out.println(data);
			inStream.close();
			fs.close();
		}
	}


   六,HDFS的忌讳:

1、将HDFS用于对数据访问要求低延迟的场景:由于HDFS是为高数据吞吐量应用而设计的,必然以高延迟为代价。

2、存储大量小文件:HDFS中元数据(文件的基本信息)存储在namenode的内存中,而namenode为单点,小文件数量大到一定程度,namenode内存就吃不消了。

 

   小结:HDFS分布式文件系统,是Hadoop能够进行大数据高效处理的基础平台,有了这个平台才能有后边Map-Reduce的计算框架的运用。这里想多说的是,作为开发程序员,我们该多看看HadoopAPI文档,在用中不断熟悉,不断掌握,就想JDKAPI文档一样。


版权声明:本文为博主原创文章,未经博主允许不得转载。

Hadoop(三)——核心之一HDFS

标签:hadoop   hdfs   namenode   datanode   

原文地址:http://blog.csdn.net/liujiahan629629/article/details/48039185

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!