解决ceph osd写满导致osd无法启动的问题

在无人看管的Ceph集群中,OSD因磁盘空间耗尽而自动down机,重启无效。解决方案涉及排查日志,发现可用空间不足。通过使用lvm扩容主机磁盘,增加OSD存储空间,最终成功启动OSD并恢复服务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

背景

最近一个无人看管的ceph集群出现了osd被写满的情况,osd磁盘使用量99.99%,然后osd自己down了,重启也启动不起来。

可能是因为之前有人调过full的限制值,所以才完全写满了,由于好几个osd同时写满了,导致有些PG down了,无法提供服务。

所以必须将这些down的osd想办法up起来。

ceph版本:v15.2.16

解决过程

  1. 启动不起来的osd的日志如下:
  2. 通过bluestore工具查看osd的磁盘使用情况,看到只有34MB可以用
    ceph-bluestore-tool --path /var/lib/ceph/osd/ceph-237/ --command bluefs-bdev-sizes
    inferring bluefs devices from bluestore path
    1 : device size 0x1bf1f800000 : own 0x[4c10000~450000,1dd60000
    。。。。。。省略。。。。。。
    0x1dd6d70000 : using 0x1dd6d10000(119 GiB) : bluestore has 0x21b0000(34 MiB) available
  3. 查看host上磁盘情况
  4. 看到host系统盘上还有未使用的分区,osd下面使用lvm,所以可以考虑通过lvm扩容来将osd的存储空间扩大
  5. 查看down的osd块设备所属vg,Free PE为0
    vgdisplay ceph-cf3140a4-13fd-4a4c-a4a0-74020ef40af3
      --- Volume group ---
      VG Name               ceph-cf3140a4-13fd-4a4c-a4a0-74020ef40af3
      System ID             
      Format                lvm2
      Metadata Areas        1
      Metadata Sequence No  5
      VG Access             read/write
      VG Status             resizable
      MAX LV                0
      Cur LV                1
      Open LV               0
      Max PV                0
      Cur PV                1
      Act PV                1
      VG Size               <1.75 TiB
      PE Size               4.00 MiB
      Total PE             
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值