HDFS写数据流程
HDFS写数据流程
- 客户端通过Distributed FileSystem模块向NameNode请求请求上传文件,NameNode检查目标文件是否已存在,父目录是否存在。
- NameNode返回是否可以上传。
- 客户端请求第一个 Block上传到哪几个DataNode服务器上。
- NameNode返回3个DataNode节点,分别为dn1、dn2、dn3.
- 客户端通过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。
- dn1、dn2、dn3主机应答客户端
- 客户端开始向dn1上传第一个Block(先从磁盘读取数据放到一个本地内存缓存),以Packet为单位,dn1收到一个packet就会传给dn2,dn2传给dn3;dn1每传一个packet就会放入一个应答队列等待应答。
- 当一个Block传输完成之后,客户端再次请求NameNode上传第二个Block的服务器。
数据小包,一个packet是64kb,packet有一个个的chunk,一个chunk由512字节组成,并且一个chunk除了这512字节之外,还有大概4个字节的校验和,校验和保证的是数据的完整性。也就是说客户端会现根据这512字节生成一个校验和。一个一个的chunk组成了数据小包。发的时候是以数据小包发送的。消息队列分为dataquene和ackquene,一个是待发送,一个是已发送。Dataquene是待发送,发送出去有没有收到我不知道。客户端收到ack,才会把packet p1这个包彻底从ackquene中去掉。