自從上了 Prometheus 監控,睡覺真香!

對很多人來說,未知、不確定、不在掌控的東西,會有潛意識的逃避。

當我第一次接觸 Prometheus 的時候也有類似的感覺。對初學者來說, Prometheus 包含的概念太多了,門檻也太高了。

概念:Instance、Job、Metric、Metric Name、Metric Label、Metric Value、Metric Type(Counter、Gauge、Histogram、Summary)、DataType(Instant Vector、Range Vector、Scalar、String)、Operator、Function

馬雲說:“雖然阿里巴巴是全球最大的零售平臺,但阿里不是零售公司,是一家數據公司”。

Prometheus 也是一樣,本質來說是一個基於數據的監控系統。

日常監控

假設需要監控 WebServerA 每個API的請求量爲例,需要監控的維度包括:服務名(job)、實例IP(instance)、API名(handler)、方法(method)、返回碼(code)、請求量(value)。

如果以SQL爲例,演示常見的查詢操作:

查詢 method=put 且 code=200 的請求量(紅框)

SELECT * from http_requests_total WHERE code=”200” AND method=”put” AND created_at BETWEEN 1495435700 AND 1495435710;

查詢 handler=prometheus 且 method=post 的請求量(綠框)

SELECT * from http_requests_total WHERE handler=”prometheus” AND method=”post” AND created_at BETWEEN 1495435700 AND 1495435710;

查詢 instance=10.59.8.110 且 handler 以 query 開頭 的請求量(綠框)

SELECT * from http_requests_total WHERE handler=”query” AND instance=”10.59.8.110” AND created_at BETWEEN 1495435700 AND 1495435710;

通過以上示例可以看出,在常用查詢和統計方面,日常監控多用於根據監控的維度進行查詢與時間進行組合查詢。

如果監控100個服務,平均每個服務部署10個實例,每個服務有20個API,4個方法,30秒收集一次數據,保留60天。那麼總數據條數爲:100(服務) 10(實例) 20(API) 4(方法) 86400(1天秒數)* 60(天) / 30(秒)= 138.24 億條數據,寫入、存儲、查詢如此量級的數據是不可能在Mysql類的關係數據庫上完成的。

因此 Prometheus 使用 TSDB 作爲 存儲引擎。

存儲引擎

TSDB 作爲 Prometheus 的存儲引擎完美契合了監控數據的應用場景:

  • 存儲的數據量級十分龐大
  • 大部分時間都是寫入操作
  • 寫入操作幾乎是順序添加,大多數時候數據到達後都以時間排序
  • 寫操作很少寫入很久之前的數據,也很少更新數據。大多數情況在數據被採集到數秒或者數分鐘後就會被寫入數據庫
  • 刪除操作一般爲區塊刪除,選定開始的歷史時間並指定後續的區塊。很少單獨刪除某個時間或者分開的隨機時間的數據
  • 基本數據大,一般超過內存大小。一般選取的只是其一小部分且沒有規律,緩存幾乎不起任何作用
  • 讀操作是十分典型的升序或者降序的順序讀
  • 高併發的讀操作十分常見

那麼 TSDB 是怎麼實現以上功能的呢?


"labels": [{
    "latency":        "500"
}]
"samples":[{
    "timestamp"1473305798,
    "value"0.9
}]

原始數據分爲兩部分 label, samples。前者記錄監控的維度(標籤:標籤值),指標名稱和標籤的可選鍵值對唯一確定一條時間序列(使用 series_id 代表);後者包含包含了時間戳(timestamp)和指標值(value)。

series
^
│. . . . . . . . . . . .   server{latency="500"}
│. . . . . . . . . . . .   server{latency="300"}
│. . . . . . . . . .   .   server{}
│. . . . . . . . . . . . 
v
<-------- time ---------->

TSDB 使用 timeseries:doc:: 爲 key 存儲 value。爲了加速常見查詢查詢操作:label 和 時間範圍結合。

TSDB 額外構建了三種索引:Series, Label Index 和 Time Index。

以標籤 latency 爲例:

Series

存儲兩部分數據。一部分是按照字典序的排列的所有標籤鍵值對序列(series);另外一部分是時間線到數據文件的索引,按照時間窗口切割存儲數據塊記錄的具體位置信息,因此在查詢時可以快速跳過大量非查詢窗口的記錄數據

Label Index

每對 label 爲會以 index:label: 爲 key,存儲該標籤所有值的列表,並通過引用指向 Series 該值的起始位置。

Time Index

數據會以 index:timeseries:: 爲 key,指向對應時間段的數據文件

數據計算

強大的存儲引擎爲數據計算提供了完美的助力,使得 Prometheus 與其他監控服務完全不同。

Prometheus 可以查詢出不同的數據序列,然後再加上基礎的運算符,以及強大的函數,就可以執行 metric series 的矩陣運算(見下圖)。

如此,Promtheus體系的能力不弱於監控界的“數據倉庫”+“計算平臺”。因此,在大數據的開始在業界得到應用,就能明白,這就是監控未來的方向。

一次計算,處處查詢

當然,如此強大的計算能力,消耗的資源也是挺恐怖的。

因此,查詢預計算結果通常比每次需要原始表達式都要快得多,尤其是在儀表盤和告警規則的適用場景中,儀表盤每次刷新都需要重複查詢相同的表達式,告警規則每次運算也是如此。

因此,Prometheus提供了 Recoding rules,可以預先計算經常需要或者計算量大的表達式,並將其結果保存爲一組新的時間序列, 達到一次計算,多次查詢的目的。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章