rook 部署ceph 異常處理

<center> rook 部署ceph 異常處理 </center>


0x1 clock skew detected on ...

1.進入工具

kubectl -n rook-ceph exec -it $(kubectl -n rook-ceph get pod -l "app=rook-ceph-tools" -o jsonpath='{.items[0].metadata.name}') -- bash

2.查看狀態

ceph -s
  cluster:
    id:     5834d655-495d-4cf8-b213-ee87b656d1f6
    health: HEALTH_WARN
            clock skew detected on mon.d, mon.e

  services:
    mon: 3 daemons, quorum a,d,e (age 5m)
    mgr: a(active, since 20m)
    osd: 3 osds: 3 up (since 20m), 3 in (since 20m)

  data:
    pools:   1 pools, 1 pgs
    objects: 0 objects, 0 B
    usage:   3.1 GiB used, 9.0 TiB / 9.0 TiB avail
    pgs:     1 active+clean

3.查看時間情況

ceph health detail

HEALTH_WARN clock skew detected on mon.d, mon.e
[WRN] MON_CLOCK_SKEW: clock skew detected on mon.d, mon.e
    mon.d clock skew 0.150128s > max 0.05s (latency 0.69216s)
    mon.e clock skew 0.0731622s > max 0.05s (latency 0.00181586s)

4.處理辦法

4.1 所有節點配置時間同步,並配置同步定時任務

//配置chrony時間同步
略

//配置定時同步任務

crontab -l
##時間同步
05 06,12,18,23 * * * /usr/sbin/ntpdate -us $DATA_SERVER_IP;hwclock -w;

4.2 重啓相關pod

kubectl delete -n rook-ceph pod rook-ceph-mon-a-**** rook-ceph-mon-d-**** rook-ceph-mon-e-****

4.3 補充

說明:部分方式是修改配置文件中的時間包容策略,個人不建議修改,時差偏移太多導致數據不同步不一致。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章