Hadoop学习(三)— hdfs : NameNode与DataNode的实现机制

http://blog.csdn.net/tracker_wjw/article/details/51245274      

      数据量越来越多,在一台PC的范围存不下了,那么就分配到更多的PC中,但是不方便管理和维护,因此迫切需要一种系统来管理多台机器上的文件,这就是分布式文件管理系统。分布式文件管理系统很多,Hadoop的HDFS只是其中一种。

HDFS主要分为两大角色,NameNode与DataNode,NameNode主要负责管理元数据,DataNode主要负责存储文件块。NameNode来管理datanode与文件块的映射关系。

一、NameNode的工作机制

当客户端想HDFS请求,上传的文件的时候,NameNode会先去检查,要上传文件的目录是否存在,不存在,则允许上传。得到允许和NameNode返回的DataNode信息后,客户端开始向DataNode写入block,而block的副本的复制(NameNode管理),与客户端上传是异步进行的。

HDFS为了快速的响应客户端的请求,也为了安全性的考虑(NameNode管理所有datanode,namenode宕机或者损坏,内存中的数据丢失,datanode中的所有数据就会无效),为了防止这种情况的发生,NameNode是如何实现的?

当客户端请求namenode时,namenode会将客户端的数据进行分析,分配好datanode,并将信息记录在一个editslog的文件中,并将datanode信息返回给客户端,客户端得到信息后,开始写入,每完成一个block,客户端会发发送成功信息给namenode,namenode就会把editlog中的信息,加载进内存,这样即使断电或者宕机,namenode中内存的数据也可以恢复,其他客户端想要下载数据,也可以从内存中加载,实现了快速响应。

editlog的空间是有限的,集群运行时间编边长的时候,editlog写满后,hdfs会将editlog的数据写入fsimage,也就是fsimage中的数据是最全,而editlog是最近最新更新的数据,为了保证fsimage中的数据与内存中的数据保证一致性,当editlog写满时,editlog中数据就会与fsimage的信息做合并,刷到fsimage中。

Hadoop学习(三)— hdfs : NameNode与DataNode的实现机制

editlog与fsimage的合并工作由secondnamenode来完成的。

当editlog与fsimage合并时,secondnamenode会进行checkpoint操作(合并),namenode产生新的editlognew,而停止向老editlog写入。secondnamenode会从namenode中下载editlog与faimage,进行合并,产生新的合并文件。合并完成后,上传到Namenode上,namenode就会把新的镜像文件替换老的fsimage,经editlognew重命名为editlog,一切恢复初始。

Hadoop学习(三)— hdfs : NameNode与DataNode的实现机制

什么时候checkpoint?

1.fs.checkpoint.period 指定两次checkpoint的最大时间间隔,默认3600秒。 

2.fs.checkpoint.size 指定edits log文件的最大值,一旦超过这个值则进行checkpoint,不管是否到达最大时间间隔。默认大小是64M。(配置参数写在hdfs-site.xml中)

元数据的存储形式:

Hadoop学习(三)— hdfs : NameNode与DataNode的实现机制

所以,多小文件往HDFS中存,会浪费NameNode的元数据空间。

namenode宕机了,在恢复正常之前。hadoop集群还能正常提供服务吗?

hadoop2.x提供了高可用机制,可以有效解决这个问题。


二、DataNode的工作机制

datanode的工作机制相对简单,提供文件数据的存储服务,存储单位是文件块(block),对于文件内容而言,一个文件的长度大小是size,那么从文件的0偏移开始,按照固定的大小,顺序对文件进行划分并编号,划分好的每一个块称一个Block。HDFS默认Block大小是128MB。dfs.block.size可以配置block的大小。

如果一个文件小于一个数据块的大小仍然占用一个block,并不占用整个数据块存储空间,但是在namenode中占用一条元数据。

dfs.replication参数配置副本数,默认3个。

block的存储位置:

/hadoop-2.4.1/data/dfs/data/current/BP-980638925-127.0.0.1-1460262510326/current/finalized

三、HDFS在Java客户端编写

[java] view plain copy
  1. package cn.hadoop.hdfs;  
  2.   
  3. import java.io.FileOutputStream;  
  4.   
  5. import org.apache.commons.io.IOUtils;  
  6. import org.apache.hadoop.conf.Configuration;  
  7. import org.apache.hadoop.fs.FSDataInputStream;  
  8. import org.apache.hadoop.fs.FileStatus;  
  9. import org.apache.hadoop.fs.FileSystem;  
  10. import org.apache.hadoop.fs.Path;  
  11. import org.junit.Before;  
  12. import org.junit.Test;  
  13.   
  14. /** 
  15.  * hdfs的API调用 
  16.  * @author hadoop123 
  17.  */  
  18. public class FileUtils {  
  19.       
  20.     FileSystem fs = null;  
  21.       
  22.     @Before  
  23.     public void before() throws Exception{  
  24.     Configuration conf = new Configuration();  
  25.     fs = FileSystem.get(conf);  
  26.     }  
  27.       
  28.     /** 
  29.      * 文件下载 
  30.      * @throws Exception  
  31.      */  
  32.     @Test  
  33.     public void download() throws Exception{  
  34.     Path src = new Path("hdfs://Wang-HP:9000/jdk-7u65-linux-i586.tar.gz");  
  35.     FSDataInputStream in = fs.open(src);  
  36.       
  37.     FileOutputStream out = new FileOutputStream("/home/hadoop123/jdk32.gz");  
  38.     IOUtils.copy(in, out);  
  39.     }  
  40.     /** 
  41.      * 文件下载  调用hdfs的api 
  42.      * @throws Exception  
  43.      */  
  44.     @Test  
  45.     public void download2() throws Exception{  
  46.     Path src = new Path("hdfs://Wang-HP:9000/jdk-7u65-linux-i586.tar.gz");  
  47.     Path dst = new Path("/home/hadoop123/jdk123.gz");  
  48.     fs.copyToLocalFile(src, dst);  
  49.     }  
  50.       
  51.     /** 
  52.      * 文件上传 
  53.      * @throws Exception 
  54.      */  
  55.     @Test  
  56.     public void upload() throws Exception{  
  57.     Path src = new Path("/home/hadoop123/jdk123.gz");  
  58.     Path dst = new Path("hdfs://Wang-HP:9000/jdk.gz");  
  59.     fs.copyFromLocalFile(src, dst);  
  60.     }  
  61.       
  62.     /** 
  63.      * 查看文件 
  64.      * @throws Exception  
  65.      */  
  66.     @Test  
  67.     public void getFiles() throws Exception{  
  68.     //遍历所有文件,是否递归遍历  
  69. //  RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(new Path("hdfs://Wang-HP:9000/"), true);  
  70. //  while (listFiles.hasNext()) {  
  71. //      LocatedFileStatus file = listFiles.next();  
  72. //      System.out.println(file.getPath().getName());  
  73. //  }  
  74.     //listStatus列出文件和文件夹的信息,但不能递归遍历  
  75.     FileStatus[] listStatus = fs.listStatus(new Path("hdfs://Wang-HP:9000/"));  
  76.       
  77.     for (FileStatus fileStatus : listStatus) {  
  78.           
  79.      fileStatus.isDirectory();   //是否是文件夹  
  80.      String name = fileStatus.getPath().getName();  
  81.      System.out.println(name);  
  82.     }  
  83.     }  
  84.       
  85.     /** 
  86.      * 创建文件夹 
  87.      */  
  88.     @Test  
  89.     public void mkdir()throws Exception{  
  90.     fs.mkdirs(new Path("/a/b/c"));  
  91.     }  
  92.       
  93.     /** 
  94.      * 删除文件夹 
  95.      */  
  96.     @Test  
  97.     public void rmdir()throws Exception{  
  98.     fs.delete(new Path("/a/b/c"), true);//删除目录c,无论是否有数据  
  99.     }  
  100.       
  101. }