大数据学习笔记--HDFS
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档
前言
一名大数据学习小白,在这里记录自己的学习过程,今天分享的是Hadoop框架HDFS
一、HDFS是什么?
HDFS作为hadoop框架的一部分,承担分布式存储服务的角色,为存储和处理超⼤规模数据
提供所需的扩展能⼒。
二、HDFS的认识
1.重要概念
HDFS重要概念
2.组成
HDFS的组成如下:
2.读写流程分析
读流程分析
- 客户端通过Distributed FileSystem向NameNode请求下载⽂件,NameNode通过查询元数据,找到⽂件块所在的DataNode地址。
- 挑选⼀台DataNode(就近原则,然后随机)服务器,请求读取数据。
- DataNode开始传输数据给客户端(从磁盘⾥⾯读取数据输⼊流,以Packet为单位来做校验)。
- 客户端以Packet为单位接收,先在本地缓存,然后写⼊⽬标⽂件。
写流程分析
- 客户端通过Distributed FileSystem模块向NameNode请求上传⽂件,NameNode检查⽬标⽂件是否已存在,⽗⽬录是否存在
- NameNode返回是否可以上传。
- 客户端请求第⼀个 Block上传到哪⼏个DataNode服务器上。
- NameNode返回3个DataNode节点,分别为dn1、dn2、dn3。
- 客户端通过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调⽤dn2,然后dn2调⽤dn3,将这个通信管道建⽴完成。
- dn1、dn2、dn3逐级应答客户端。
- 客户端开始往dn1上传第⼀个Block(先从磁盘读取数据放到⼀个本地内存缓存),以Packet为单位,dn1收到⼀个Packet就会传给dn2,dn2传给dn3;dn1每传⼀个packet会放⼊⼀个确认队列 等待确认。
- 当⼀个Block传输完成之后,客户端再次请求NameNode上传第⼆个Block的服务器。(重复执⾏3-7步)。