docker笔记44-rbd块存储的创建

ceph rbd块存储简介

    其前身就是ceph块设备,为ceph客户端提供基于块的持久存储,通常做为一个额外的磁盘使用,客户可以灵活的使用这个磁盘,可以作为裸设备使用,也可以格式化成文件系统,然后挂载使用。利用librbd库将块数据连续的存储在跨越多个OSD的条带存储空间。

创建rbc块存储

[root@k8s-node3 ~]# ceph osd lspools

     rbd块存储默认是存在rbd pool里面的。

     先创建一个rbd的pool。

[root@k8s-node3 ~]# ceph osd pool create rbd 128 ##128表示pg的个数
[root@k8s-node3 ~]# ceph osd lspools
0 rbd,

    说明: 0是一个编号。

    如果想删除,可以执行如下语句:

[root@k8s-node3 ~]# ceph osd pool delete rbd rbd  --yes-i-really-really-mean-it

    下面再创建一个rbd的块存储:

[root@k8s-node1 ~]# rbd create data --size 1024 -p rbd

、data是我们自己取的rbd块存储的名字;

   -p是指定pool,也可以不加-p,不加就默认是rbd pool;

   --size指定大小,默认单位是MB。

    查看rbd块存储的相关信息:

[root@k8s-node1 ~]# rbd --image data info
rbd image 'data':
size 1024 MB in 256 objects ##objects是块的意思
order 22 (4096 kB objects)
block_name_prefix: rbd_data.1149238e1f29
format: 2
features: layering, exclusive-lock, object-map, fast-diff, deep-flatten
flags: