Ceph集群中删除RBD_CephFS以及Pool池

2023年 5月 4日 105.2k 0

由于之前实验创建了很多RBD存储池以及对应的镜像,并且在cephfs也有很多垃圾数据,后面不需要使用了,所以我这边介绍下如何删除RBD、CephFS、以及Pool存储池

[root@ceph-01 ~]# ceph  osd pool ls

.rgw.root
default.rgw.control
default.rgw.meta
default.rgw.log
default.rgw.buckets.index
default.rgw.buckets.data
#以上为Ceph内置存储池,我这边不管它

#下面的存储池就是我们要删除的
abcdocker
cephfs_data
cephfs_metadata
kubernetes
fs_data
fs_metadata
kube
abcdocker_rbd
abcdocker_data
cephfs-data
cephfs-metadata
i4t_data
i4t_metadata

删除RBD

在删除存储池之前,我们需要手动先删除RBD的镜像。一般我们创建Pool存储池的时候就已经命名了

#查看RBD
[root@ceph-01 ~]# rbd ls kubernetes
csi-vol-18bb0c5b-e286-11ec-a7ae-7e84c5effa12
csi-vol-1f7f5694-e286-11ec-a7ae-7e84c5effa12
csi-vol-2d721d5f-e286-11ec-a7ae-7e84c5effa12
csi-vol-3be06d4e-e27f-11ec-a7ae-7e84c5effa12

删除RBD

rbd rm kubernetes/csi-vol-1f7f5694-e286-11ec-a7ae-7e84c5effa12
rbd rm kubernetes/csi-vol-3be06d4e-e27f-11ec-a7ae-7e84c5effa12
rbd rm kubernetes/csi-vol-6b8cd42c-e281-11ec-a7ae-7e84c5effa12
rbd rm kubernetes/csi-vol-8cf2bc82-f483-11ec-a2b1-9af24b413276

#kubernetes为Pool池名称
#csi-vol.xxx为RBD名称

当Pool池中没有rbd文件后,就可以通过下面的方式进行删除Pool池

ceph osd pool rm kubernetes kubernetes --yes-i-really-really-mean-it

#kubernetes为Pool池名称,需要输入2次
# --yes-i-really-really-mean-it 确认删除

删除cephfs

cephfs肯定就不可以像rbd那样删除
首先先查看一下ceph fs信息

ceph fs ls

将ceph fs 标记下线

ceph fs fail cephfs-abcdocker

删除ceph fs

ceph fs rm  cephfs-abcdocker --yes-i-really-mean-it

在删除对应的Pool池

ceph osd pool rm cephfs-abcdocker cephfs-abcdocker --yes-i-really-really-mean-it 

清理完成

[root@ceph-01 ~]# ceph -s
  cluster:
    id:     c8ae7537-8693-40df-8943-733f82049642
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum ceph-01,ceph-02,ceph-03 (age 89m)
    mgr: ceph-01(active, since 46h), standbys: ceph-02, ceph-03
    mds:  3 up:standby
    osd: 5 osds: 5 up (since 87m), 5 in (since 11d)
    rgw: 2 daemons active (ceph-01, ceph-02)

  task status:

  data:
    pools:   6 pools, 192 pgs
    objects: 228 objects, 2.5 KiB
    usage:   5.5 GiB used, 275 GiB / 280 GiB avail
    pgs:     192 active+clean

[root@ceph-01 ~]# ceph osd pool ls
.rgw.root
default.rgw.control
default.rgw.meta
default.rgw.log
default.rgw.buckets.index
default.rgw.buckets.data
[root@ceph-01 ~]# ceph fs ls
No filesystems enabled

在ui中也看不到了
1681273097842.png

相关文章:

  1. Ceph RGW高可用集群部署
  2. Kubernetes(k8s) 1.24 csi-ceph rbd使用手册
  3. Prometheus Grafana使用Ceph持久化并监控k8s集群
  4. Ceph Dashboard用户权限控制

相关文章

KubeSphere 部署向量数据库 Milvus 实战指南
探索 Kubernetes 持久化存储之 Longhorn 初窥门径
征服 Docker 镜像访问限制!KubeSphere v3.4.1 成功部署全攻略
那些年在 Terraform 上吃到的糖和踩过的坑
无需 Kubernetes 测试 Kubernetes 网络实现
Kubernetes v1.31 中的移除和主要变更

发布评论