QuestDB時序數據庫,性能居然領先ClickHouse和InfluxDB這麼多

作者:Vlad Ilyushchenko,QuestDB的CTO

QuestDB (https://questdb.io/https://github.com/questdb/questdb),我們已經建立了一個專注於性能的開源時間序列數據庫。我們創建QuestDB初衷是爲了將我們在超低延遲交易方面的經驗以及我們在該領域開發的技術方法帶到各種實時數據處理用途中。

QuestDB的旅程始於2013年的原型設計,我們在去年HackerNews發佈會期間(https://news.ycombinator.com/item?id=23975807)發表的一篇文章中描述了2013年之後所發生的變化。我們的用戶在金融服務、物聯網、應用監控和機器學習領域都部署了QuestDB,使時間序列分析變得快速、高效和便捷。

什麼是存儲時間序列數據的最佳方式?

在項目的早期階段,我們受到了基於矢量的append-only系統(如kdb+)的啓發,因爲這種模型帶來了速度和簡潔代碼路徑的優勢。QuestDB的數據模型使用了我們稱之爲基於時間的數組,這是一種線性數據結構。這允許QuestDB在數據獲取過程中把數據切成小塊,並以並行方式處理所有數據。以錯誤的時間順序到達的數據在被持久化到磁盤之前會在內存中進行處理和重新排序。因此,數據在到達數據庫中之前已經按時間排序。因此,QuestDB不依賴計算密集的索引來爲任何時間序列的查詢重新排序數據。

這種liner模型與其他開源數據庫(如InfluxDBTimescaleDB)中的LSM樹或基於B樹的存儲引擎不同。

除了更好的數據獲取能力,QuestDB的數據佈局使CPU能夠更快地訪問數據。我們的代碼庫利用最新CPU架構的SIMD指令,對多個數據元素並行處理同類操作。我們將數據存儲在列中,並按時間進行分區,以在查詢時從磁盤中提取最小的數據量。

數據被存儲在列中,並按時間進行分區

QuestDBClickHouseInfluxDBTimescaleDB相比如何?

我們看到時間序列基準測試套件(TSBS https://github.com/timescale/tsbs)經常出現在關於數據庫性能的討論,因此我們決定提供對QuestDB和其他系統進行基準測試的能力。TSBS是一個Go程序集,用於生成數據集,然後對讀寫性能進行基準測試。該套件是可擴展的,因此可以包括不同的用例和查詢類型,並在不同系統之間進行比較。

以下是我們在AWS EC2 m5.8xlarge實例上使用多達14個worker的cpu用例的基準測試結果,該實例有16個內核。

TSBS結果比較了QuestDBInfluxDBClickHouseTimescaleDB的最大獲取吞吐量。

我們使用4個worker達到最大的攝取性能,而其他系統需要更多的CPU資源來達到最大的吞吐量。QuestDB4個線程達到了959k/秒。我們發現InfluxDB需要14個線程才能達到最大的攝取率(334k/秒),而TimescaleDB4個線程達到145k/秒。ClickHouse以兩倍於QuestDB的線程達到914k/秒。

當在4個線程上運行時,QuestDBClickHouse1.7倍,比InfluxDB6.5倍,比TimescaleDB6.6倍。

使用4個線程的TSBS基準測試結果:QuestDBInfluxDBClickHouseTimescaleDB每秒獲取的行數。

當我們使用AMD Ryzen5處理器再次運行該套件時,我們發現,我們能夠使用5個線程達到每秒143萬行的最大吞吐量。與我們在AWS上的參考基準m5.8xlarge實例所使用的英特爾至強Platinum相比:

比較QuestDB TSBSAWS EC2AMD Ryzen5上的負載結果

你應該如何存儲亂序的時間序列數據?

事實證明,在攝取過程中對 "亂序"O3)的數據進行重新排序特別具有挑戰性。這是一個新的方法,我們想在這篇文章中詳細介紹一下。我們對如何處理失序攝取的想法是增加一個三階段的方法。

  1. 保持追加模式,直到記錄不按順序到達爲止
  2. 在內存中對暫存區的未提交的記錄進行排序
  3. 在提交時對分類的無序數據和持久化的數據進行覈對和合並

前兩個步驟很直接,也很容易實現,依然只是處理追加的數據,這一點沒變。只有在暫存區有數據的時候,昂貴的失序提交纔會啓動。這種設計的好處是,輸出是向量,這意味着我們基於向量的閱讀器仍然是兼容的。

這種預提交的排序和合並方式給數據獲取增加了一個額外的處理階段,同時也帶來了性能上的損失。不過,我們還是決定探索這種方法,看看我們能在多大程度上通過優化失序提交來減少性能損耗。

我們如何分類、合併和提交無序的時間序列數據

處理一個暫存區給了我們一個獨特的機會來全面分析數據,在這裏我們可以完全避免物理合併,並通過快速和直接的memcpy或類似的數據移動方法來替代。由於我們的基於列的存儲,這種方法可以被並行化。我們可以採用SIMD和非時序數據訪問,這對我們來說是很重要的。

我們通過優化版本的radix排序對來自暫存區的時間戳列進行排序,所產生的索引被用於並行對暫存區的其餘列進行排序。

並行得將列進行排序

現在排序的暫存區是相對於現有分區數據進行映射的。從一開始可能並不明顯,但我們正試圖爲以下三種類型的每一種建立所需的操作和維度。

失序(O3)排序和合並方案

當以這種方式合併數據集時,前綴和後綴組可以是持續的數據、失序的數據,或者沒有數據。合併組(Merge Group)是最繁忙的,因爲它可以被持久化的數據、失序的數據、失序的數據和持久化的數據佔據,或者沒有數據。

當明確瞭如何分組和處理暫存區的數據時,一個工人池就會執行所需的操作,在少量的情況下調用memcpy,其他都轉向SIMD優化的代碼。通過前綴、合併和後綴拆分,提交的最大活度(增加CPU容量的易感性)可以通過partition_affected x number_of_columns x 3得到。

時間序列數據應該多久進行一次排序和合並?

能夠快速複製數據是一個不錯的選擇,但我們認爲在大多數時間序列獲取場景中可以避免大量的數據複製。假設大多數實時失序的情況是由傳遞機制和硬件抖動造成的,我們可以推斷出時間戳分佈將在一定區間範圍。

例如,如果任何新的時間戳值有很大概率落在先前收到的值的10秒內,那麼邊界就是10秒,我們稱這個爲滯後邊界。

當時間戳值遵循這種模式時,推遲提交可以使失序提交成爲正常的追加操作。失序系統可以處理任何種類的延遲,但如果延遲的數據在指定的滯後邊界內到達,它將被優先快速處理。

如何比較時間序列數據庫的性能

我們已經在TimescaleDBTSBS GitHub倉庫中開啓了一個合併請求(Questdb基準支持 https://github.com/timescale/tsbs/issues/157),增加了針對QuestDB運行基準測試的能力。同時,用戶可以克隆我們的基準測試fork(https://github.com/questdb/tsbs),並運行該套件以查看自己的結果。

tsbs_generate_data --use-case="cpu-only" --seed=123 --scale=4000 `

    --timestamp-start="2016-01-01T00:00:00Z" --timestamp-end="2016-01-02T00:00:00Z" \

    --log-interval="10s" --format="influx" > /tmp/bigcpu

 

tsbs_load_questdb --file /tmp/bigcpu --workers 4

構建具有授權許可的開源數據庫

在進一步推動數據庫性能的同時,使開發人員能夠輕鬆地開始使用我們的產品,這一點每天都激勵着我們。這就是爲什麼我們專注於建立一個堅實的開發者社區,他們可以通過我們的開源分銷模式參與並改進產品。

除了使QuestDB易於使用之外,我們還希望使其易於審計、審查,提交代碼或其他的項目貢獻。QuestDB的所有源代碼都在GitHub(https://github.com/questdb/questdb)上以Apache 2.0許可證提供,我們歡迎對此產品的各種貢獻,包括在GitHub上創建issue或者提交代碼。

© 2021QuestDBSlab提供

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章