CLUSTER 05: 块存储应用案例 分布式文件系统 对象存储
一、块存储应用案例
目的:
KVM虚拟机调用Ceph镜像作为虚拟机的磁盘。
1.1 准备实验环境
1.1.1 创建磁盘镜像
• 为虚拟机创建磁盘镜像
[[email protected] ~]# rbd create vm1-image –image-feature layering –size 10G
[[email protected] ~]# rbd create vm2-image –image-feature layering –size 10G
• 查看镜像
[[email protected] ~]# rbd list
[[email protected] ~]# rbd info vm1-image
[[email protected] ~]# qemu-img info rbd:rbd/vm1-image
image: rbd:rbd/vm1-image
file format: raw
virtual size: 10G (10737418240 bytes)
disk size: unavailable
1.1.2 Ceph认证账户
• Ceph默认开启用户认证,客户端需要账户才可以访问
– 默认账户名称为client.admin,key是账户的**
– 可以使用ceph auth添加新账户(案例我们使用默认账户)
[[email protected] ~]# cat /etc/ceph/ceph.conf //配置文件
[global]
mon_initial_members = node1, node2, node3
mon_host = 192.168.2.10,192.168.2.20,192.168.2.30
auth_cluster_required = cephx //开启认证
auth_service_required = cephx //开启认证
auth_client_required = cephx //开启认证
[[email protected] ~]# cat /etc/ceph/ceph.client.admin.keyring //账户文件
[client.admin]
key = AQBTsdRapUxBKRAANX^eNUyoEmQHveb75bISg== //账户key值
1.1.3 部署客户端环境
• 注意:这里使用真实机当客户端!!!
• 客户端需要安装ceph-common软件包
• 拷贝配置文件(否则不知道集群在哪)
• 拷贝连接**(否则无连接权限)
[[email protected] ~]# yum -y install ceph-common
[[email protected] ~]# scp 192.168.4.11:/etc/ceph/ceph.conf /etc/ceph/
[[email protected] ~]# scp 192.168.4.11:/etc/ceph/ceph.client.admin.keyring /etc/ceph/
1.2 创建KVM虚拟机
1.2.1 创建初始化虚拟机
• 使用virt-manager创建2台普通的KVM虚拟机
– 这里以1个虚拟机为例
[[email protected] ~]# virt-manager
• 创建虚拟机后,不着急启动虚拟机(关闭虚拟机)
1.2.2 配置libvirt secret
• KVM虚拟机需要使用librbd才可以访问ceph集群
• Librbd访问ceph又需要账户认证
• 所以这里,我们需要给libvirt设置账户信息
• 编写账户信息文件(真实机操作)
[[email protected] ~]# vim secret.xml //新建临时文件,内容如下
<secret ephemeral=’no’ private=’no’>
<usage type=’ceph’>
<name>client.admin secret</name>
</usage>
</secret>
• 使用XML配置文件创建secret
[[email protected] ~]# virsh secret-define –file secret.xml
733f0fd1-e3d6-4c25-a69f-6681fc19802b
//随机的UUID,这个UUID对应的有账户信息
• 查看账户信息文件(真实机操作)
[[email protected] ~]# ceph auth get-key client.admin
//获取client.admin的key,或者直接查看**文件
[[email protected] ~]# cat /etc/ceph/ceph.client.admin.keyring
• 设置secret,添加账户的**
[[email protected]] virsh secret-set-value \
–secret 733f0fd1-e3d6-4c25-a69f-6681fc19802b \
–base64 AQBTsdRapUxBKRAANX^eNUyoEmQHveb75bISg
//这里secret后面是之前创建的secret的UUID
//base64后面是client.admin账户的密码
//现在secret中既有账户信息又有**信息
1.2.3 虚拟机的XML配置文件
• 每个虚拟机都会有一个XML配置文件,包括:
– 虚拟机的名称、内存、CPU、磁盘、网卡等信息
[[email protected] ~]# vim /etc/libvirt/qemu/vm1.xml
//修改前内容如下
<disk type=’file’ device=’disk’>
<driver name=’qemu’ type=’qcow2’/>
<source file=’/var/lib/libvirt/images/vm1.qcow2’/>
<target dev=’vda’ bus=’virtio’/>
<address type=’pci’ domain=’0x0000’ bus=’0x00’
slot=’0x07’ funcOon=’0x0’/>
</disk>
• 不推荐直接使用vim修改配置文件
• 推荐使用virsh edit修改配置文件
[[email protected]] virsh edit vm1 //vm1为虚拟机名称
//修改后的内容如下
<disk type=’network’ device=’disk’>
<driver name=’qemu’ type=’raw’/>
<auth username=’admin’>
<secret type=’ceph’ uuid=’733f0fd1-e3d6-4c25-a69f-6681fc19802b’/>
</auth>
<source protocol=’rbd’ name=’rbd/vm1-image’>
<host name=’192.168.4.1’ port=’6789’/>
</source>
<target dev=’vda’ bus=’virtio’/>
<address type=’pci’ domain=’0x0000’ bus=’0x00’ slot=’0x07’ function=’0x0’/>
</disk>
• 关键词说明
<secret type=’ceph’ uuid=’3b8b0c5c-bebc-4fc2-9137-0e3deb61dc8b’/>
//这里的uuid就是secret的uuid,有client.admin账户和**信息
<source protocol=’rbd’ name=’rbd/vm1’>
<host name=’192.168.4.11’ port=’6789’/>
</source>
//这里说明使用账户连接哪台ceph主机和端口,访问哪个池和镜像
<target dev=’vda’ bus=’virOo’/>
//这里说明,将获取的镜像,设置为虚拟机的vda磁盘
最后启动虚拟机
二、分布式文件系统
目的:
• 部署MDSs节点
• 创建Ceph文件系统
• 客户端挂载文件系统
2.1 什么是CephFS
• 分布式文件系统(Distributed File System)是指文
件系统管理的物理存储资源不一定直接连接在本地节
点上,而是通过计算机网络与节点相连
• CephFS使用Ceph集群提供与POSIX兼容的文件系统
• 允许Linux直接将Ceph存储mount到本地
2.2 环境准备
2.2.1 环境拓扑
2.2.2 环境配置
• 准备一台新的虚拟机,作为元数据服务器
• 要求如下:
– IP地址:192.168.4.14
– 主机名:node4
– 配置yum源(包括rhel、ceph的源)
– 与Client主机同步时间
– node1允许无密码远程node4
– 修改node1的/etc/hosts,并同步到所有node主机
2.3 元数据服务器
2.3.1 什么是元数据
• 元数据(Metadata)
– 任何文件系统中的数据分为数据和元数据。
– 数据是指普通文件中的实际数据
– 而元数据指用来描述一个文件的特征的系统数据
– 比如:访问权限、文件拥有者以及文件数据块的分布信息
(inode…)等
• 所以CephFS必须有MDSs节点
2.3.2 部署元数据服务器
• 登陆node4,安装ceph-mds软件包
[[email protected] ~]# yum -y install ceph-mds
• 登陆node1部署节点操作
[[email protected] ~]# cd /root/ceph-cluster
//该目录,是最早部署ceph集群时,创建的目录
[[email protected] ceph-cluster]# ceph-deploy mds create node4
//给nod4拷贝配置文件,启动mds服务
• 同步配置文件和key
[[email protected] ceph-cluster]# ceph-deploy admin node4
2.4 文件系统服务器
2.4.1 创建存储池
• 文件系统需要至少2个池
– 一个池用于存储数据
– 一个池用于存储元数据
[[email protected] ~]# ceph osd pool create cephfs_data 128
//创建存储池,对应128个PG
[[email protected] ~]# ceph osd pool create cephfs_metadata 128
//创建存储池,对应128个PG
2.4.2 创建Ceph文件系统
• 使用前面创建的池,创建文件系统
[[email protected] ~]# ceph mds stat //查看mds状态
e2:, 1 up:standby
[[email protected] ~]# ceph fs new myfs1 cephfs_metadata cephfs_data
new fs with metadata pool 2 and data pool 1
//注意,先写medadata池,再写data池
//默认,只能创建1个文件系统,多余的会报错
[[email protected] ~]# ceph fs ls
name: myfs1, metadata pool: cephfs_metadata, data pools: [cephfs_data ]
[[email protected] ~]# ceph mds stat
e4: 1/1/1 up {0=node4=up:creaOng}
2.4.3 客户端挂载
• Linux内核支持ceph文件系统(不需要装软件)
[[email protected] ~]# mount -t ceph 192.168.4.11:6789:/ /mnt/cephfs/ \
-o name=admin,secret=AQBTsdRapUxBKRAANX^eNUyoEmQHveb75bISg==
//注意:文件系统类型为ceph
//192.168.4.11为MON节点的IP(不是MDS节点)
//admin是用户名,secret是**
//**可以在/etc/ceph/ceph.client.admin.keyring中找到
三、Ceph对象存储
3.1 概述
目的:
• 安装部署Rados Gateway
• 启动RGW服务
• 设置RGW的前端服务与端口
• 客户端测试
3.1.1 什么是对象存储
• 对象存储
– 也就是键值存储,通其接口指令,也就是简单的GET、
PUT、DEL和其他扩展,向存储服务上传下载数据
– 对象存储中所有数据都被认为是一个对象,所以,任
何数据都可以存入对象存储服务器,如图片、视频、
音频等
• RGW全称是Rados Gateway
• RGW是Ceph对象存储网关,用于向客户端应用呈现
存储界面,提供RESTful API访问接口
3.1.2 环境准备
• 准备一台新的虚拟机,作为元数据服务器
• 要求如下:
– IP地址:192.168.4.15
– 主机名:node5
– 配置yum源(包括rhel、ceph的源)
– 与Client主机同步时间
– node1允许无密码远程node5
– 修改node1的/etc/hosts,并同步到所有node主机
3.2 对象存储
3.2.1 部署RGW软件包
• 用户需要通过RGW访问存储集群
– 通过node1安装ceph-radosgw软件包
[[email protected] ~]# ceph-deploy install –rgw node5
• 同步配置文件与**到node5
[[email protected] ~]# cd /root/ceph-cluster
[[email protected] ~]# ceph-deploy admin node5
3.2.2 新建网关实例
1.启动一个rgw服务
[[email protected] ~]# ceph-deploy rgw create node5
2.登陆node5验证服务是否启动
[[email protected] ~]# ps aux |grep radosgw
ceph 4109 0.2 1.4 2289196 14972 ? Ssl 22:53 0:00 /usr/bin/
…
[[email protected] ~]# systemctl status [email protected]\*
3. 修改服务端口
• 登陆node5,RGW默认服务端口为7480,修改为
8081或80更方便客户端使用
[[email protected] ~]# vim /etc/ceph/ceph.conf
[client.rgw.node5]
host = node5
rgw_frontends = “civetweb port=8081“
//node5为主机名
//civetweb是RGW内置的一个web服务
[[email protected] ~]# systemctl restart [email protected]\*
3.2.3 客户端测试
1.这里仅测试RGW是否正常工作
– 上传、下载数据还需要调用API接口
[[email protected] ~]# curl 192.168.4.15:8081
3.2.4 使用第三方软件访问
1.登陆node5(RGW)创建账户
[[email protected] ~]# radosgw-admin user create –uid=”testuser” –display-name=”First User”
… …
“keys”: [
{
“user”: “testuser”,
“access_key”: “5E42OEGB1M95Y49IBG7B”,
“secret_key”: “i8YtM8cs7QDCK3rTRopb0TTPBFJVXdEryRbeLGK6”
}
],
… …
[[email protected] ~]# radosgw-admin user info –uid=testuser
//testuser为用户,key是账户访问**
2.客户端安装软件
[[email protected] ~]# yum install s3cmd-2.0.1-1.el7.noarch.rpm
3.配置软件
[[email protected] ~]# s3cmd –configure
Access Key: 5E42OEGB1M95Y49IBG7B
Secret Key: i8YtM8cs7QDCK3rTRopb0TTPBFJVXdEryRbeLGK6
S3 Endpoint [s3.amazonaws.com]: 192.168.4.15:8081
[%(bucket)s.s3.amazonaws.com]: %(bucket)s.192.168.4.15:8081
Use HTTPS protocol [Yes]: No
Test access with supplied credenOals? [Y/n] Y
Save se|ngs? [y/N] y
//注意,其他提示都默认回车
3.2.5 使用第三方软件访问
1.客户端测试
[[email protected] ~]# s3cmd ls
2.创建存储数据的bucket(类似于存储数据的目录)
[[email protected] ~]# s3cmd mb s3://my_bucket
Bucket ‘s3://my_bucket/’ created
[[email protected] ~]# s3cmd ls
2018-05-09 08:14 s3://my_bucket
[[email protected] ~]# s3cmd put /var/log/messages s3://my_bucket/log/
3.客户端测试
[[email protected] ~]# s3cmd ls
2018-05-09 08:14 s3://my_bucket
[[email protected] ~]# s3cmd ls s3://my_bucket
DIR s3://my_bucket/log/
[[email protected] ~]# s3cmd ls s3://my_bucket/log/
2018-05-09 08:19 309034 s3://my_bucket/log/messages
4.测试下载功能
[[email protected] ~]# s3cmd get s3://my_bucket/log/messages /tmp/
5.测试删除功能
[[email protected] ~]# s3cmd del s3://my_bucket/log/messages