RAID与LVM磁盘阵列技术
RAID在我前几次面试中都问过我这个问题 所以可见RAID技术还是非常重要的
RAID(磁盘冗余阵列)
1988年,加利福尼亚大学伯克利分校首次提出并定义了RAID技术的概念。RAID技术通过把多个硬盘设备组合成一个容量更大、安全性更好的磁盘阵列,并把数据切割成多个区段后分别存放在各个不同的物理硬盘设备上,然后利用分散读写技术来提升磁盘阵列整体的性能,同时把多个重要数据的副本同步到不同的物理硬盘设备上,从而起到了非常好的数据冗余备份效果。
RAID磁盘阵列的方案至少有十几种,RAID 0、RAID 1、RAID 5与RAID 10这4种是最常见的方案。
1. RAID 0
RAID 0技术把多块物理硬盘设备(至少两块)通过硬件或软件的方式串联在一起,组成一个大的卷组,并将数据依次写入到各个物理硬盘中。这样一来,在最理想的状态下,硬盘设备的读写性能会提升数倍,但是若任意一块硬盘发生故障将导致整个系统的数据都受到破坏。通俗来说,RAID 0技术能够有效地提升硬盘数据的吞吐速度,但是不具备数据备份和错误修复能力。
2. RAID 1
尽管RAID 0技术提升了硬盘设备的读写速度,但是它是将数据依次写入到各个物理硬盘中,也就是说,它的数据是分开存放的,其中任何一块硬盘发生故障都会损坏整个系统的数据。因此,如果生产环境对硬盘设备的读写速度没有要求,而是希望增加数据的安全性时,就需要用到RAID 1技术了。
RAID 1技术虽然十分注重数据的安全性,但是因为是在多块硬盘设备中写入了相同的数据,因此硬盘设备的利用率得以下降,从理论上来说,图7-2所示的硬盘空间的真实可用率只有50%,由三块硬盘设备组成的RAID 1磁盘阵列的可用率只有33%左右,以此类推。而且,由于需要把数据同时写入到两块以上的硬盘设备,这无疑也在一定程度上增大了系统计算功能的负载。
3. RAID 5
如图7-3所示,RAID5技术是把硬盘设备的数据奇偶校验信息保存到其他硬盘设备中。RAID 5磁盘阵列组中数据的奇偶校验信息并不是单独保存到某一块硬盘设备中,而是存储到除自身以外的其他每一块硬盘设备上,这样的好处是其中任何一设备损坏后不至于出现致命缺陷;图7-3中parity部分存放的就是数据的奇偶校验信息,换句话说,就是RAID 5技术实际上没有备份硬盘中的真实数据信息,而是当硬盘设备出现问题后通过奇偶校验信息来尝试重建损坏的数据。RAID这样的技术特性“妥协”地兼顾了硬盘设备的读写速度、数据安全性与存储成本问题。 RAID5最少需要三块磁盘
4. RAID 10
鉴于RAID 5技术是因为硬盘设备的成本问题对读写速度和数据的安全性能而有了一定的妥协,但是大部分企业更在乎的是数据本身的价值而非硬盘价格,因此生产环境中主要使用RAID 10技术。
顾名思义,RAID 10技术是RAID 1+RAID 0技术的一个“组合体”。如图7-4所示,RAID 10技术需要至少4块硬盘来组建,其中先分别两两制作成RAID 1磁盘阵列,以保证数据的安全性;然后再对两个RAID 1磁盘阵列实施RAID 0技术,进一步提高硬盘设备的读写速度。这样从理论上来讲,只要坏的不是同一组中的所有硬盘,那么最多可以损坏50%的硬盘设备而不丢失数据。由于RAID 10技术继承了RAID 0的高读写速度和RAID 1的数据安全性,在不考虑成本的情况下RAID 10的性能都超过了RAID 5,因此当前成为广泛使用的一种存储技术。
部署磁盘阵列
我们可以尝试部署一下RAID10阵列 首先RAID10需要四块硬盘 首先我们在虚拟机中添加4块硬盘
添加硬盘的方法就不用说了吧 上一章节里面有
mdadm命令用于管理Linux系统中的软件RAID硬盘阵列,格式为“mdadm [模式] <RAID设备名称> [选项] [成员设备名称]”。
[[email protected] ~]# mdadm -Cv /dev/md0 -a yes -n 4 -l 10 /dev/sdb /dev/sdc /dev/sdd /dev/sde
其中,-C参数代表创建一个RAID阵列卡;-v参数显示创建的过程,同时在后面追加一个设备名称/dev/md0,这样/dev/md0就是创建后的RAID磁盘阵列的名称;-a yes参数代表自动创建设备文件;-n 4参数代表使用4块硬盘来部署这个RAID磁盘阵列;而-l 10参数则代表RAID 10方案;最后再加上4块硬盘设备的名称就搞定了。
然后把制作好的磁盘阵列进行格式化 格式化的命令和格式化物理卷的命令没什么差别
[[email protected] ~]# mkfs.ext4 /dev/md0
格式化后 就创建一个挂载目录 然后进行挂载
[[email protected] ~]# mkdir /RAID [[email protected] ~]# mount /dev/md0 /RAID
然后把它写在开机自启的 /etc/fstab配置文件中
[[email protected] ~]# echo "/dev/md0 /RAID ext4 defaults 0 0" >> /etc/fstab
在使用磁盘阵列中 有时候有必要使用备份盘 就是当阵列中有一块盘损坏时 备份盘可以马上补位上去
[[email protected] ~]# mdadm -Cv /dev/md0 -n 3 -l 5 -x 1 /dev/sdb /dev/sdc /dev/sdd /dev/sde
现在创建一个RAID 5磁盘阵列+备份盘。在下面的命令中,参数-n 3代表创建这个RAID 5磁盘阵列所需的硬盘数,参数-l 5代表RAID的级别,而参数-x 1则代表有一块备份盘。当查看/dev/md0(即RAID 5磁盘阵列的名称)磁盘阵列的时候就能看到有一块备份盘在等待中了。
[[email protected] ~]# mdadm /dev/md0 -f /dev/sdb
可模拟 sdb盘损坏 然后sdd备份盘补位上去 我们修复的时候先把sdb盘移除 然后添加一块新的硬盘就就好
移除 mdadm /dev/md0 -r /dev/sdb
添加mdadm /dev/md0 -a /dev/adb 到时候可以查看硬盘到底叫什么名字 按照真实名字进行添加
部署逻辑卷
不知道大家是否还记得上一章节讲的LVM 上次说了很小一部分
在虚拟机中新添加两块硬盘
第1步:让新添加的两块硬盘设备支持LVM技术。
[[email protected] ~]# pvcreate /dev/sdb /dev/sdc 将两块硬盘变成物理卷支持LVM技术
第2步:把两块硬盘设备加入到storage卷组中,然后查看卷组的状态。
[[email protected] ~]# vgcreate storage /dev/sdb /dev/sdc
第3步:切割出一个约为150MB的逻辑卷设备。
在对逻辑卷进行切割时有两种计量单位。第一种是以容量为单位,所使用的参数为-L。例如,使用-L 150M生成一个大小为150MB的逻辑卷。另外一种是以基本单元的个数为单位,所使用的参数为-l。每个基本单元的大小默认为4MB。例如,使用-l 37可以生成一个大小为37×4MB=148MB的逻辑卷。
[[email protected] ~]# lvcreate -n vo -l 37 storage
使用lvdisplay可以查看信息
[[email protected] ~]# lvdisplay第4步:把生成好的逻辑卷进行格式化,然后挂载使用。
[[email protected] ~]# mkfs.ext4 /dev/storage/vo
[[email protected] ~]# mkdir /linuxprobe
[[email protected] ~]# mount /dev/storage/vo /linuxprobe
第5步:查看挂载状态,并写入到配置文件,使其永久生效。
[[email protected] ~]# df -h
[[email protected] ~]# echo "/dev/storage/vo /linuxprobe ext4 defaults 0 0" >> /etc/fstab
/etc/fstab这个配置文件看了是真的非常重要
扩容逻辑卷
扩容和缩容操作都需要先取消逻辑卷与目录的挂载关联;扩容操作是先扩容后检查文件系统完整性,而缩容操作为了保证数据的安全,需要先检查文件系统完整性再缩容。
先取消挂载
[[email protected] ~]# umount /linuxprobe
第1步:把上一个实验中的逻辑卷vo扩展至290MB。
[[email protected] ~]# lvextend -L 290M /dev/storage/vo
第2步:检查硬盘完整性,并重置硬盘容量。
[[email protected] ~]# e2fsck -f /dev/storage/vo 检查硬盘的完整性
[[email protected] ~]# resize2fs /dev/storage/vo
第3步:重新挂载硬盘设备并查看挂载状态。
[[email protected] ~]# mount -a [[email protected] ~]# df -h
缩小逻辑卷
[[email protected] ~]# umount /linuxprobe
第1步:检查文件系统的完整性。
[[email protected] ~]# e2fsck -f /dev/storage/vo
第2步:把逻辑卷vo的容量减小到120MB。
[[email protected] ~]# resize2fs /dev/storage/vo 120M
第3步:重新挂载文件系统并查看系统状态。
[[email protected] ~]# mount -a [[email protected] ~]# df -h
LVM的删除顺序
依次移除逻辑卷、卷组和物理卷。