掌握這些監控報警優化技巧,百萬年薪不在話下!

運維工程師面試者第一個問題是:需要值班嗎?筆者自己也曾經歷過月入十萬的時期,在那個時候,數個系統同時發佈下一代版本,而老系統還需要過渡很長時間,工作量直接翻倍。

image.png

圖片來自 Pexels


大家只能勉強應付一線運維工作,團隊成員開始陸續離職,而新人又無法在短時間內上手,整體情況不斷惡化,持續半年左右才緩過勁來。


下面兩張截圖是我挑選的兩個團隊一週報警數的對比圖,前者的單日報警量最高是 55348 條,後者單日的報警量最高爲 34 條,兩者相差 1600 倍,而前者纔是國內很多互聯網運維團隊的真實寫照。
image.png image.png

在管理大規模集羣的情況下,究竟有多少報警量纔是合理的呢?


Google SRE 每週十條故障報警


Google SRE 每週只有十條報警,如果超過十條,說明沒有把無效報警過濾掉(Google SRE 僅負責 SLA 要求爲 99.99% 的服務)。


筆者所在的團隊要求則是,每週至多兩晚有報警,單日報警量不能超過 50 條(比 Google SRE 放水好多啊)。


通過控制單日報警數量,嚴格約束夜間報警天數,確保最少不低於四人蔘與值班。


筆者所在的團隊,近幾年來,不僅少有因爲值班壓力而離職的同學,而且我們每年都能持續招聘到 985 前 20 名學校的多個研究生。


那麼,怎麼做到呢,以下是筆者的一些經驗分享。


運維工程角度看報警優化


①報警值班和報警升級


基於值班表,每天安排兩人進行值班處理報警,將值班壓力從全團隊壓縮在兩人範圍內,從而讓團隊能夠有足夠的時間和人力進行優化工作。


同時,爲了避免兩個值班人員都沒有響應報警,可以使用報警升級功能,如果一個報警在 5min 內值班人員均未響應,或者 15min 內未處理完畢,或者有嚴重故障發生,都可以將報警進行升級,通告團隊其他成員協助處理。


如果公司的監控系統暫不支持值班表功能,則通過人工定期修改報警接收人的方式進行。


而對於監控系統不支持報警升級的問題,通過自行開發腳本的方式,也能在一定程度上得到解決。


也可以將報警短信發送至商業平臺來實現。總之一句話,辦法總比問題多。


對於報警值班人員,需要隨時攜帶筆記本以方便處理服務故障,這個要求,和報警數量多少以及報警的自動化處理程度並無關係,僅和服務重要性有關。


對於節假日依然需要值班的同學,公司或者部門也應該儘量以各種方式進行補償。


②基於重要性不同,分級應對


一個問題請大家思考一下,如果線上的服務器全部掉電後以短信方式通知值班人員,那麼線上一臺機器的根分區打滿,也通過短信來通知是否有必要。


上述的問題在日常工作也屢屢發生,對於問題、異常和故障,我們採取了同樣的處理方式,因此產生了如此多的無效報警。


Google SRE 的實踐則是將監控系統的輸出分爲三類,報警、工單和記錄。


SRE 的要求是所有的故障級別的報警,都必須是接到報警,有明確的非機械重複的事情要做,且必須馬上就得做,才能叫做故障級別的報警。其他要麼是工單,要麼是記錄。


在波音公司裝配多個發動機的飛機上,一個發動機熄火的情況只會產生一個”提醒“級別的警示(最高級別是警報,接下來依次是警告、提醒、建議),對於各種警示,會有個檢查清單自動彈出在中央屏幕上,以引導飛行員找到解決方案。


如果是最高級別的警報,則會以紅色信息,語音警報,以及飛機操縱桿的劇烈震動來提示。如果這時你什麼都不做,飛機將會墜毀。


image.png③故障自愈


重啓作爲單機預案,在很多業務線,可以解決至少 50% 的報警。沒有響應,重啓試試,請求異常,重啓試試,資源佔用異常,重啓試試,各種問題,重啓都屢試不爽。


換言之,針對簡單場景具有明確處置方案的報警,自動化是一個比較好的解決方案,能夠將人力從大量重複的工作中解放出來。


自動化處理報警的過程中,需要注意以下問題:

  • 自動化處理比例不能超過服務的冗餘度(默認串行處理最爲穩妥)。

  • 不能對同一個問題在短時間內重複多次地自動化處理(不斷重啓某個機器上的特定進程)。

  • 在特定情況下可以在全局範圍內快速終止自動化處理機制。

  • 儘量避免高危操作(如刪除操作、重啓服務器等操作)。

  • 每次執行操作都需要確保上一個操作的結果和效果收集分析完畢(如果一個服務重啓需要 10min)。

image.png

④報警儀表盤,持續優化 TOP-3 的報警


如下圖示,全年 TOP-3 的報警量佔比達到 30%,通過對 TOP-3 的報警安排專人進行跟進優化,可以在短時間大幅降低報警量。

image.png

TOP-3 只是報警儀表盤數據分析的典型場景之一,在 TOP-3 之後,還可以對報警特徵進行分析。


如哪些模塊的報警最多,哪些機器的報警最多,哪個時間段的報警最多,哪種類型的報警最多,進而進行細粒度的優化。
同時,報警儀表盤還需要提供報警視圖的功能,能夠基於各種維度展示當前有哪些報警正在發生,從而便於當短時間內收到大量報警,或者是報警處理中的狀態總覽,以及報警恢復後的確認等。


⑤基於時間段分而治之

下圖是國內非常典型的一類流量圖,流量峯值在每天晚上,流量低谷在每天凌晨。

image.png

從冗餘度角度來分析,如果在流量峯值有 20% 的冗餘度,那麼在流量低谷,冗餘度至少爲 50%。
基於冗餘度的變換,相應的監控策略的閾值,隨機也應該發生一系列的變化。
舉例來說,在高峯期,可能一個服務故障 20% 的實例,就必須介入處理的話,那麼在低谷期,可能故障 50% 的實例,也不需要立即處理,依賴於報警自動化處理功能,逐步修復即可。
在具體的實踐中,一種比較簡單的方式就是,在流量低谷期,僅接收故障級別的報警,其餘報警轉爲靜默方式或者是自動化處理方式,在流量高峯期來臨前幾個小時,重新恢復,這樣即使流量低谷期出現一些嚴重隱患,依然有數小時進行修復。
這種方式之所以大量流行,是因爲該策略能夠大幅減少凌晨的報警數量,讓值班人員能夠正常休息。


⑥報警週期優化,避免瞬報
在監控趨勢圖中,會看到偶發的一些毛刺或者抖動,這些毛刺和抖動,就是造成瞬報的主要原因。
這些毛刺和抖動,至多定義爲異常,而非服務故障,因此應該以非緊急的通知方式進行。
以 CPU 瞬報爲例,如果設置採集週期爲 10s,監控條件爲 CPU 使用率大於 90% 報警,如果設置每次滿足條件就報警,那麼就會產生大量的報警。
如果設置爲連續 5 次滿足條件報警,或者連續的 10 次中有 5 次滿足條件就報警,則會大幅減少無效報警。


對於重要服務,一般建議爲在 3min 內,至少出現 5 次以上異常,再發送報警較爲合理。

image.png

⑦提前預警,防患於未然
對於很多有趨勢規律的場景,可以通過提前預警的方式,降低問題的緊迫程度和嚴重性。
下圖是兩臺機器一週內的磁盤使用率監控圖,可以預見,按照目前的增長趨勢,必然會在某一個時間點觸發磁盤剩餘空間 5% 的報警。


可以在剩餘空間小於 10% 的時候,通過工單或者其他非緊急方式提醒,在工作時間段內,相對從容的處理完畢即可,畢竟 10% 到 5% 還是需要一個時間過程的。

image.png

⑧日常巡檢
提前預警面向的是有規律的場景,而日常巡檢,還可以發現那些沒有規律的隱患。
以 CPU 使用率爲例進行說明,近期的一個業務上線後,CPU 使用率出現偶發突增的情況,但是無法觸發報警條件(例如 3 分鐘內有 5 次使用率超過 70% 報警),因此無法通過報警感知。
放任不管的話,只能是問題足夠嚴重了,才能通過報警發現。
這個時候,如果每天有例行的巡檢工作,那麼這類問題就能夠提前發現,儘快解決,從而避免更加嚴重的問題發生。


⑨比例爲主,絕對值爲輔
線上機器的規格不同,如果從絕對值角度進行監控,則無法適配所有的機器規格,勢必會產生大量無意義的報警。

以磁盤剩餘空間監控爲例,線上規格從 80GB 到 10TB 存在多種規格,從下圖表格看,比例比絕對值模式能更好的適配各種規格的場景(EXT4 文件系統的默認預留空間爲 5%,也是基於比例設置的並可通過 tune2fs 進行調整)。

image.png

對於一些特殊場景,同樣以磁盤剩餘空間爲例進行說明,例如計算任務要求磁盤至少有 100GB 以上空間,以供存放臨時文件。


那這個時候,監控策略就可以調整爲:磁盤剩餘空間小於 5% 報警且磁盤剩餘空間絕對值小於 100GB 報警。
⑩Code Review
前人埋坑,後人挖坑。在解決存量問題的情況下,不對增量問題進行控制,那報警優化,勢必會進入螺旋式緩慢上升的過程,這對於報警優化這類項目來說,無疑是致命的。
通過對新增監控的 Code Review,可以讓團隊成員快速達成一致認知,從而避免監控配置出現千人千面的情況出現。
沉澱標準和優秀實踐
僅僅做 Code Review 還遠遠不夠,一堆人開會,面對一行監控配置,大眼瞪小眼,對不對,爲什麼不對,怎麼做更好?大家沒有一個標準,進而會浪費很多時間來進行不斷的討論。
這時候,如果有一個標準,告訴大傢什麼是好,那麼有了評價標準,很多事情就比較容易做了。
標準本身也是需要迭代和進步的,因此大家並不需要擔心說我的標準不夠完美。
基於標準,再給出一些最佳的監控時間,那執行起來,就更加容易了。 以機器監控爲例進行說明,機器監控必須覆蓋如下的監控指標,且閾值設定也給出了優秀實踐。


具體如下:
  • CPU_IDLE < 10

  • MEM_USED_PERCENT > 90

  • NET_MAX_NIC_INOUT_PERCENT > 80 (網卡入口/出口流量最大使用率)

  • CPU_SERVER_LOADAVG_5 > 15 

  • DISK_MAX_PARTITION_USED_PERCENT > 95 (磁盤各個分區最大使用率)

  • DISK_TOTAL_WRITE_KB(可選項)

  • DISK_TOTAL_READ_KB(可選項)

  • CPU_WAIT_IO(可選項)

  • DISK_TOTAL_IO_UTIL(可選項)

  • NET_TCP_CURR_ESTAB(可選項)

  • NET_TCP_RETRANS(可選項)


⑫徹底解決問題不等於自動處理問題


舉兩個例子,大家來分析一下這個問題是否得到徹底解決:
如果一個模塊經常崩掉,那麼我們可以通過添加一個定時拉起腳本來解決該問題。
那這個模塊崩掉的問題解決了嗎?其實並沒有,你增加一個拉起腳本,只是說自己不用上機器去處理了而已,但是模塊爲什麼經常崩掉這個問題,卻並沒有人去關注,更別提徹底解決了。
如果一個機器經常出現 CPU_IDLE 報警,那麼我們可以將現在的監控策略進行調整。
比如說,以前 5min 內出現 5 次就報警,現在可以調整爲 10min 內出現 20 次再報警,或者直接刪除這個報警策略,或者將報警短信調整爲報警郵件,或者各種類似的手段。
但這個機器爲什麼出現 CPU_IDLE 報警,卻並沒有人去關注,更別提解決了。
通過上面兩個例子,大家就理解,自動化處理問題不等於解決問題,掩耳盜鈴也不等於解決問題,什麼叫做解決問題,只有是找到問題的根本原因,並消滅之,才能確保徹底解決問題,輕易不會再次發生。
還是上面自動拉起的例子,如果仔細分析後,發現是內存泄露導致的進程頻繁崩掉,或者是程序 Bug 導致的 Coredump,那麼解決掉這些問題,就能夠徹底避免了。


如何解決團隊內部的值班排斥情緒


每個運維團隊早晚都會面對團隊高工對值班工作的排斥,這也是人之常情。
辛辛苦苦幹了幾年了,還需要值班,老婆孩子各種抱怨,有時候身體狀況也不允許了,都不容易。
不同的團隊,解決方式不同,但有些解決方案,會讓人覺得,你自己都不想值班,還天天給我們打雞血說值班重要。
更嚴重一些的,會讓團隊成員感受到不公平,憑什麼他可以不值班,下次是不是我們大家也可以找同樣的理由呢。
筆者的團隊是這樣明確說明的: 保證值班人員數量不低於四人,如果短時間內低於四人,那麼就需要將二線工程師短暫加入一線值班工作中,爲期不超過三個月。


對於希望退出值班列表的中級工程師,給三個月不值班時間,如果能將目前的報警短信數量優化 20%-50%,則可以退出值班序列,但如果情況反彈,則需要重回值班工作。
團隊達到一定級別的工程師,就可以轉二線,不參與日常值班工作,僅接收核心報警,且對核心報警的有效性負責,若服務故障核心報警未發出,則每次罰款兩百。


團隊負責人不參與值班工作,但需要對單日報警數量負責,如果當週的日報警數量大於要求值,則每次罰款兩百元。如果團隊成員數量低於四人時,則需要加入值班列表。


寫在最後


在團隊的報警量有了明顯減少後,就需要對報警的準確性和召回率進行要求了,從而才能持續的進行報警優化工作。
所謂的準確性,也就是有報警必有損,而召回率呢,則是有損必有報警。
最後,祝願大家都不在因爲值班工作而苦惱!







































































發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章