<center> rook 部署ceph 異常處理 </center>
0x1 clock skew detected on ...
1.進入工具
kubectl -n rook-ceph exec -it $(kubectl -n rook-ceph get pod -l "app=rook-ceph-tools" -o jsonpath='{.items[0].metadata.name}') -- bash
2.查看狀態
ceph -s
cluster:
id: 5834d655-495d-4cf8-b213-ee87b656d1f6
health: HEALTH_WARN
clock skew detected on mon.d, mon.e
services:
mon: 3 daemons, quorum a,d,e (age 5m)
mgr: a(active, since 20m)
osd: 3 osds: 3 up (since 20m), 3 in (since 20m)
data:
pools: 1 pools, 1 pgs
objects: 0 objects, 0 B
usage: 3.1 GiB used, 9.0 TiB / 9.0 TiB avail
pgs: 1 active+clean
3.查看時間情況
ceph health detail
HEALTH_WARN clock skew detected on mon.d, mon.e
[WRN] MON_CLOCK_SKEW: clock skew detected on mon.d, mon.e
mon.d clock skew 0.150128s > max 0.05s (latency 0.69216s)
mon.e clock skew 0.0731622s > max 0.05s (latency 0.00181586s)
4.處理辦法
4.1 所有節點配置時間同步,並配置同步定時任務
//配置chrony時間同步
略
//配置定時同步任務
crontab -l
##時間同步
05 06,12,18,23 * * * /usr/sbin/ntpdate -us $DATA_SERVER_IP;hwclock -w;
4.2 重啓相關pod
kubectl delete -n rook-ceph pod rook-ceph-mon-a-**** rook-ceph-mon-d-**** rook-ceph-mon-e-****
4.3 補充
說明:部分方式是修改配置文件中的時間包容策略,個人不建議修改,時差偏移太多導致數據不同步不一致。