码迷,mamicode.com
首页 > 其他好文 > 详细

HDFS文件读写过程

时间:2019-07-16 16:47:40      阅读:122      评论:0      收藏:0      [点我收藏+]

标签:ali   pipeline   eric   ast   lang   list   目标   ant   ansi   

技术图片

 

存储流程

a)         Clinet首先将要存储的数据切分成若干块,然后向NameNode发送存储请求,

b)         NameNode检查权限、存储文件是否已存在等信息,确认无误后返回允许存储的响应,这个响应还包括第一个Block要放在哪个DataNode哪个的地址的信息。

c)         Clinet得到NameNode的响应,打开文件输出流,向第一个DataNode请求打开管道,DN1接受的信息后继续通知DN2DN2接受到DN1的信息后通知DN3,DN3接受到信息后确认没有更多副本了,向DN2返回响应信息,DN2获取到DN3的响应后向DN1返回响应,DN1得到响应后向Clinet返回响应

d)   Clinet获得响应后,确认pipeline(管线,管线上每个节点都能收到相同的数据流)已开通,开始写入数据。

首先向向缓冲区chunkbuff中写入,当达到一个chunk大小时(512byte),将chunk写出到packetbuff,每个chunk有一个MD5码(4byte),这个码是由整个chunk的字节算出,因此一个chunk516byte,当packetbuff达到一个packet大小时(64KB),将packet写出到DataQueueDN1 DataQueue上获取一个packetpacket会在pipeline里传入到DN2DN3DN会检验packet中的各个chunkMD5是否匹配,然后返回响应ack packet放到ack Queue中返回给clinet,如此保证数据的完整正确传输。

e)         clinet确认block1完成传输后,向NameNode发送请求,确认block1已存入,NN更新自己的Fsimage,并返回block2的存储地址

 

f)          重复,直到所有block都存入。

 

 

技术图片

读取流程

1)客户端通过Distributed FileSystem向NameNode请求下载文件,NameNode通过查询元数据,找到文件块所在的DataNode地址。

2)挑选一台DataNode(就近原则,然后随机)服务器,请求读取数据。

3)DataNode开始传输数据给客户端(从磁盘里面读取数据输入流,以packet为单位来做校验)。

4)客户端以packet为单位接收,先在本地缓存,然后写入目标文件。

HDFS文件读写过程

标签:ali   pipeline   eric   ast   lang   list   目标   ant   ansi   

原文地址:https://www.cnblogs.com/whoyoung/p/11195698.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!