HDFS读写文件流程
HDFS写流程:
写的详细流程:
① 客户端向HDFS写数据,首先跟namenode通信以确认可以写文件(namenode检查目标文件是否存在,父目录是否存在),确认可以上传,返回给客户端client
② client会先对文件进行切分,默认一个block块是128M,比如说,文件有300M,就会被切分成3块,两个128M,一个44M。然后client会向namenode请求上传第一个block
③ namenode返回datanode的服务器
④ client会请求一台datanode来上传数据(本质上是一个RPC 调用,建立pipeline).第一个datanode接收到请求会继续调用第二个datanode,然后第二个datanode会调用第三个datanode(多少个datanode跟配置的副本数有关),将整个pipeline建立完成,逐级返回给客户端
⑤ client开始往第一台datanode上上传第一个block(先从磁盘读取数据放到本地内存缓存中),以packet为单位(一个packet为64KB).当然在写入的时候datanode会进行数据校验,它并不是通过一个packet进行一次校验,而是以chunk为单位进行校验(512byte),第一台datanode收到一个packet就会传给第二台datanode,第二台再传给第三台。。。每一台每传一个packet会放入一个应答队列等待应答
⑥ 当一个block传输完成之后,client会再次请求namenode上传第二个block的datanode服务器。循环
HDFS读流程:
读的详细流程:
① client向namenode请求下载文件,即向namenode通信查询元数据(block所在的datanode节点),找到文件块所在的datanode服务器
② client挑选一台datanode(就近原则,然后随机)服务器,请求建立socket流
③ datanode开始发送数据(从磁盘里面读取数据输入流,以packet为单位来做校验)
④ 客户端以packet为单位接收,先在本地缓存,然后写入目标文件,后面的block块就相当于是append到前面的block块最后合成最终需要的文件。