第七章:小朱笔记hadoop之源码分析-hdfs分析 第一节:基本概念

第一节:基本概念

1.1 数据块(block)

      
第七章:小朱笔记hadoop之源码分析-hdfs分析 第一节:基本概念

 

默认的最基本的存储单位是64M的数据块。和普通文件系统相同的是,HDFS中的文件是被分成64M一块的数据块存储的。不同于普通文件系统的是,HDFS中,如果一个文件小于一个数据块的大小,并不占用整个数据块存储空间。blk_<id>保存的是HDFS的数据块,其中保存了具体的二进制数据。
blk_<id>.meta保存的是数据块的属性信息:版本信息,类型信息,和checksum。
当一个目录中的数据块到达一定数量的时候,则创建子文件夹来保存数据块及数据块属性信息。


1.2 元数据节点文件夹结构

VERSION文件是java properties文件,保存了HDFS的版本号。

写道
namespaceID=788590977
cTime=0
storageType=NAME_NODE
layoutVersion=-32

layoutVersion是一个负整数,保存了HDFS的持续化在硬盘上的数据结构的格式版本号。

namespaceID是文件系统的唯一标识符,是在文件系统初次格式化时生成的。

cTime此处为0

storageType表示此文件夹中保存的是元数据节点的数据结构。

 

1.3 文件系统命名空间映像文件及修改日志

      
第七章:小朱笔记hadoop之源码分析-hdfs分析 第一节:基本概念
 

当文件系统客户端(client)进行写操作时,首先把它记录在修改日志中(edit log)
元数据节点在内存中保存了文件系统的元数据信息。在记录了修改日志后,元数据节点则修改内存中的数据结构。
每次的写操作成功之前,修改日志都会同步(sync)到文件系统。
fsimage文件,也即命名空间映像文件,是内存中的元数据在硬盘上的checkpoint,它是一种序列化的格式,并不能够在硬盘上直接修改。
同数据的机制相似,当元数据节点失败时,则最新checkpoint的元数据信息从fsimage加载到内存中,然后逐一重新执行修改日志中的操作。
从元数据节点就是用来帮助元数据节点将内存中的元数据信息checkpoint到硬盘上的
checkpoint的过程我会专门用一节来解析