Hdfs的文件读写过程

0 Hdfs简介

HDFS 是 Hadoop Distribute File System 的简称,意为:Hadoop 分布式文件系统。是 Hadoop 核心组件之一,作为最底层的分布式存储服务而存在。它们是横跨在多台计算机上的存储系统

优点:

1 很好的处理超大文件 GB TB PB级别 筛分为多个分片 进行分布式处理

2 运行于廉价的商用机器集群上

3 高容错性和高可靠性 副本机制

4 流式的访问数据 读取整个数据集比读取单条记录更加高效

缺点:

1 不适合低延迟的数据访问  可以使用Hbase

2 不适合存储大量小文件 文件的元数据由namenode进行管理 存储在内存中 一个文件150字节左右 大量的小文件会暂用大量内容导致namenode挂掉 namenode可做集群

3 不支持多用户同事写入和随机修改 HDFS 是设计成适应一次写入,多次读出的场景,且不支持文件的修改。

特性:

1 master/slave 架构  namenode和多个datanode

2分块存储 默认大小在 hadoop2.x 版本中是 128M 1.X默认64M。

3名字空间(NameSpace)支持传统的层次型文件组织结构

4 Namenode元数据管理

5 Datanode数据存储

6副本机制 每个文件的 block 大小和副本系数都是可配置的 128M默认是 3

7 一次写入,多次读出 适应一次写入,多次读出的场景,且不支持文件的修改

Hdfs的文件读写过程

 

1 hdfs文件的写入过程

Hdfs的文件读写过程

详细步骤解析:

1、 client发起文件上传请求,通过RPC与NameNode建立通讯,NameNode检查目标文件是否已存在,父目录是否存在,返回是否可以上传;

2、 client请求第一个block该传输到哪些DataNode服务器上;

3、NameNode根据配置文件中指定的备份数量及机架感知原理进行文件分配,返回可用的DataNode的地址如:A,B,C;

 

注:Hadoop在设计时考虑到数据的安全与高效,数据文件默认在HDFS上存放三份,存储策略为本地一份,同机架内其它某一节点上一份,不同机架的某一节点上一份。

4、 client请求3台DataNode中的一台A上传数据(本质上是一个RPC调用,建立pipeline),A收到请求会继续调用B,然后B调用C,将整个pipeline建立完成,后逐级返回client;

5、 client开始往A上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位(默认64K),A收到一个packet就会传给B,B传给C;A每传一个packet会放入一个应答队列等待应答。

6、数据被分割成一个个packet数据包在pipeline上依次传输,在pipeline反方向上,逐个发送ack(命令正确应答),最终由pipeline中第一个DataNode节点A将pipelineack发送给client;

7、当一个block传输完成之后,client再次请求NameNode上传第二个block到服务器。

 

2 hdfs的文件的读取过程

Hdfs的文件读写过程

 

详细步骤解析

1、Client向NameNode发起RPC请求,来确定请求文件block所在的位置;

2、 NameNode会视情况返回文件的部分或者全部block列表,对于每个block,NameNode 都会返回含有该 block 副本的 DataNode 地址;这些返回的 DN 地址,会按照集群拓扑结构得出 DataNode 与客户端的距离,然后进行排序,排序两个规则:网络拓扑结构中距离 Client 近的排靠前;心跳机制中超时汇报的 DN 状态为 STALE,这样的排靠后;

3、 Client 选取排序靠前的 DataNode 来读取 block,如果客户端本身就是DataNode,那么将从本地直接获取数据(短路读取特性);

4、底层上本质是建立Socket Stream(FSDataInputStream),重复的调用父类DataInputStream 的 read 方法,直到这个块上的数据读取完毕;

5、当读完列表的 block 后,若文件读取还没有结束,客户端会继续向NameNode 获取下一批的 block 列表;

6、读取完一个 block 都会进行 checksum 验证,如果读取 DataNode 时出现错误,客户端会通知 NameNode,然后再从下一个拥有该 block 副本的DataNode 继续读。

7、 read 方法是并行的读取 block 信息,不是一块一块的读取;NameNode 只是返回Client请求包含块的DataNode地址,并不是返回请求块的数据;

 8、最终读取来所有的 block 会合并成一个完整的最终文件。