字節跳動自研強一致在線 KV &表格存儲實踐 - 下篇

本文選自“字節跳動基礎架構實踐”系列文章。
“字節跳動基礎架構實踐”系列文章是由字節跳動基礎架構部門各技術團隊及專家傾力打造的技術乾貨內容,和大家分享團隊在基礎架構發展和演進過程中的實踐經驗與教訓,與各位技術同學一起交流成長。
自從 Google 發佈 Spanner 論文後,國內外相繼推出相關數據庫產品或服務來解決數據庫的可擴展問題。字節跳動在面對海量數據存儲需求時,也採用了相關技術方案。本次分享將介紹我們在構建此類系統中碰到的問題,解決方案以及技術演進。

前情回顧

字節跳動自研強一致在線 KV &表格存儲實踐 - 上篇

關鍵技術

下面我們繼續展開對於關鍵技術中的分佈式事務、分區自動分裂和合並、負載均衡這幾個技術點的討論。

分佈式事務

前面在介紹接口部分時,提到了 ByteKV 原子性的 WriteBatch 和滿足分佈式一致性快照讀的 MultiGet。WriteBatch 意味着 Batch 內的所有修改要麼都成功,要麼都失敗,不會出現部分成功部分失敗的情況。MultiGet 意味着不會讀取到其他已提交事務的部分數據。

ByteKV 大致採用了以下幾種技術來實現分佈式事務:

  • 集羣提供一個全局遞增的邏輯時鐘,每個讀寫請求都通過該模塊分配一個時間戳,從而給所有請求都分配一個全局的順序。
  • 一個 Key 的每次更新都在系統中產生一個新的版本,保證新的寫入不會影響到舊的讀的快照。
  • 在寫請求的流程中引入兩階段提交,保證寫入可以有序、原子性的提交。

全局授時服務

毫無疑問,給所有的事件定序,能讓分佈式系統中的很多問題都得以簡化。我們也總是見到各種系統在各種各樣的物理時鐘、邏輯時鐘、混合邏輯時鐘中取捨。ByteKV 從性能、穩定性和實現難度的角度綜合考慮,在 KVMaster 服務中實現了一個提供全局遞增時間戳分配的接口,供集羣所有的讀寫模塊使用,該接口保證吐出的時間戳是全局唯一且遞增的。

之所以採用這樣的架構,是因爲我們覺得:

  • 時鐘分配的邏輯非常簡單,即便是由一個單機模塊來提供,也能得到穩定的延時和足夠的吞吐。
  • 我們可以使用 Raft 協議來實現時鐘分配模塊的高可用,單機的失敗絕不會成爲系統的單點。

在具體實現上,爲了保證時鐘的穩定、高效和易用,我們也做了一些工程上的努力和優化:

  • 同一個客戶端拿時鐘的邏輯是有 Batch 的,這樣可以有效減少 RPC 的次數。
  • 時鐘的分配要用獨立的 TCP Socket,避免受到其他的 RPC 請求的干擾。
  • 時鐘的分配用原子操作,完全規避鎖的使用。
  • 時鐘要儘量接近真實的物理時間,非常有利於一些問題的調試。

多版本

幾乎所有的現代數據庫系統都會採用多版本機制來作爲事務併發控制機制的一部分,ByteKV 也不例外。多版本的好處是讀寫互不阻塞。對一行的每次寫入都會產生一個新的版本,而讀取通常是讀一個已經存在的版本。邏輯上的數據組織如下:

相同的 Key 的多個版本會連續存儲在一起,方便具體版本的定位,同時版本降序排列以減少查詢的開銷。

爲了保證編碼後的數據能夠按我們期望的方式排序,對 RocksDB Key 我們採用了內存可比較編碼[2],這裏之所以沒有自定義 RocksDB 的 compare 函數,是因爲:

  • Key 比較大小是在引擎讀寫中非常高頻的,而默認的 memcmp 對性能非常友好。
  • 減少對 RocksDB 的特殊依賴,提高架構的靈活性。

爲了避免同一個 Key 的多個版本持續堆積而導致空間無限膨脹,ByteKV 有一個後臺任務定期會對舊版本、已標記刪除的數據進行清理。在上篇中,存儲引擎章節做了一些介紹。

兩階段提交

ByteKV 使用兩階段提交來實現分佈式事務,其大致思想是整個過程分爲兩個階段:第一個階段叫做 Prepare 階段,這個階段裏協調者負責給參與者發送 Prepare 請求,參與者響應請求並分配資源、進行預提交(預提交數據我們叫做 Write Intent);第一個階段中的所有參與者都執行成功後,協調者開始第二個階段即 Commit 階段,這個階段協調者提交事務,並給所有參與者發送提交命令,參與者響應請求後把 Write Intent 轉換爲真實數據。在 ByteKV 裏,協調者由 KVClient 擔任,參與者是所有 PartitionServer。接下來我們從原子性和隔離性角度來看看 ByteKV 分佈式事務實現的一些細節。

首先是如何保證事務原子性對外可見?這個問題本質上是需要有持久化的事務狀態,並且事務狀態可以被原子地修改。業界有很多種解法,ByteKV 採用的方法是把事務的狀態當作普通數據,單獨保存在一個內部表中。我們稱這張表爲事務狀態表,和其他業務數據一樣,它也分佈式地存儲在多臺機器上。事務狀態表包括如下信息:

  • 事務狀態:包括事務已開始,已提交,已回滾等狀態。事務狀態本身就是一個 KV,很容易做到原子性。
  • 事務版本號:事務提交時,從全局遞增時鐘拿到的時間戳,這個版本號會被編碼進事務修改的所有 Key 中。
  • 事務 TTL:事務的超時時間,主要爲了解決事務夯死,一直佔住資源的情況。其他事務訪問到該事務修改的資源時,如果發現該事務已超時,可以強行殺死該事務。

在事務狀態表的輔助下,第二階段中協調者只需要簡單地修改事務狀態就能完成事務提交、回滾操作。一旦事務狀態修改完成,即可響應客戶端成功, Write Intent 的提交和清理操作則是異步地進行。

第二個問題是如何保證事務間的隔離和衝突處理?ByteKV 會對執行中的事務按照先到先得的原則進行排序,後到的事務讀取到 Write Intent 後進行等待,直到之前的事務結束並清理掉 Write Intent 。Write Intent 對於讀請求不可見,如果 Write Intent 指向的事務 Prepare 時間大於讀事務時間,那麼 Write Intent 會被忽略;否則讀請求需要等待之前的事務完成或回滾,才能知道這條數據是否可讀。等待事務提交可能會影響讀請求的延遲,一種簡單的優化方式是讀請求將還未提交的事務的提交時間戳推移到讀事務的時間戳之後。前面說了這麼多 Write Intent,那麼 Write Intent 到底是如何編碼的使得處於事務運行中還沒有提交的數據無法被其他事務讀到?這裏也比較簡單,只需要把 Write Intent 的版本號設置爲無窮大即可。

除了上述問題外,分佈式事務需要解決容錯的問題。這裏只討論協調者故障的場景,協調者故障後事務可能處於已經提交狀態,也可能處於未提交狀態;部分 PartitionServer 中的 Write Intent 可能已經提交或清理,也可能還保留在那裏。如果事務已經提交,隨後的讀寫事務碰到遺留的 Write Intent 時,會根據事務狀態表中的狀態來輔助之前的事務提交或清理 Write Intent;如果事務還未提交,後續事務會在之前的事務超時(事務 TTL)後修改事務狀態爲已回滾,並異步地清理 Write Intent。由於 Write Intent 本身也包含着事務的相關信息,如果我們把參與者列表也記錄在 Write Intent 中,就可以把事務提交的標誌從原子的修改完事務狀態修改爲所有 Write Intent 都完成持久化,從而降低一次提交延遲;而後續的操作碰到 Write Intent 後可以根據參與者列表還原出事務狀態。

分區自動分裂和合並

前面提到 ByteKV 採用 Range 分區的方式提供擴展性,這種分區方式帶來的一個問題是:隨着業務發展,原有的分區結構不再適用於新的業務模式。比如業務寫入熱點變化,熱點從一個分區漂移到另一個分區。爲了解決這個問題,ByteKV 實現了自動分裂的功能:通過對用戶寫入進行採樣,當數據量超過一定閾值後,從中間將 Range 切分爲兩個新的 Range。分裂功能配合上調度,提供了自動擴展的能力。

分裂過程

ByteKV 實現的分裂過程比較簡單,當某個 Range 發現自己已經達到分裂條件,便向 KVMaster 申請執行一次分裂並拿到新分區的相關元信息,然後在 Range 內部執行分裂操作。分裂命令和普通的操作一樣,作爲一條日誌,發送給本 Range 的 Raft Leader;當日志提交後,狀態機根據日誌攜帶的信息,在原地拉起一個新的 Raft 副本,這些新副本共同服務分裂後的一半分區,原來的副本服務另一半分區。

在另外一些場景,比如大量的 TTL,大量的先寫後刪,會自動地分裂出大量的分區。當 TTL 過期、數據被 GC 後,這些分裂出來的分區就形成了大量的數據碎片:每個 Raft Group 只服務少量的數據。這些小分區會造成無意義的開銷,同時維護它們的元信息也增加了 KVMaster 的負擔。針對這種情況,ByteKV 實現了自動合併功能,將一些較小的區間和與之相鄰的區間合併。

合併過程

合併的過程比分裂複雜,master 將待合併的兩個相鄰區間調度到一塊,然後發起一次合併操作。如上圖所示,這個過程分爲兩步:首先左區間發起一次操作,拿到一個同步點,然後在右區間發起合併操作;右區間會進行等待,只要當前 Server 中左區間同步點前的數據都同步完成,就能夠安全地修改左右區間的元信息,完成合並操作。

負載均衡

負載均衡是所有分佈式系統都需要的重要能力之一。無法做到負載均衡的系統不僅不能充分利用集羣的計算和存儲資源,更會因爲個別節點因負載過重產生抖動進而影響服務質量。設計一個好的負載均衡策略會面對兩個難點,一是需要均衡的資源維度很多,不僅有最基本的磁盤空間,還有 CPU、IO、網絡帶寬、內存空間等,二是在字節跳動內部,機器規格非常多樣,同一個集羣內的不同節點,CPU、磁盤、內存都可能不同。我們在設計負載均衡策略時採取了循序漸進的辦法,首先只考慮單一維度同構機型的場景,然後擴展到多個維度異構機型。下面介紹一下策略的演進過程。

單維度調度策略

以磁盤空間單一維度爲例,並假設所有節點的磁盤容量完全相同。每個節點的磁盤空間使用量等於這個節點上所有副本的數據量之和。將所有副本一一分配並放置在某一個節點上就形成了一個副本分配方案。一定有一個方案,各節點的數據量的方差值最低,這種狀態我們稱之爲“絕對均衡”。隨着數據的持續寫入,節點的數據量也會持續發生變化,如果要讓集羣始終保持“絕對均衡”狀態,就需要不斷的進行調度,帶來大量的數據遷移開銷。不僅如此,某個維度的絕對均衡會使得其它維度的絕對均衡無法實現。從成本和可行性的角度,我們定義了一種更弱的均衡狀態,稱之爲“足夠均衡”,它放鬆了均衡的標準,一方面降低了調度的敏感度,少量的數據量變化不會引起頻繁調度,另一方面也讓多個維度同時達到這種弱均衡狀態成爲可能。爲了直觀表達“足夠均衡”的定義,我們畫這樣一個示意圖進行說明:

  • 每個節點是一根柱子,柱子的高度是它的數據量,所有節點由高到低依次排列
  • 計算出所有節點的平均數據量 Savg,並畫一條橫線,叫做平均線
  • 平均數據量分別加、減一個 alpha 值得到高水位值和低水位值,alpha 可以取 Savg 的 10%或 20%,它決定了均衡的鬆緊程度,根據水位值畫出高水位線和低水位線
  • 根據節點數據量與三條線的關係,將它們劃分爲四個區:
    • 高負載區/主動遷出區:節點數據量高於高水位值
    • 高均衡區/被動遷出區:節點數據量低於高水位值且高於平均值
    • 低均衡區/被動遷入區:節點數據量高於低水位值且低於平均值
    • 低負載區/主動遷入區:節點數據量低於低水位值
  • 當節點位於高負載區時,需要主動遷出副本,目標節點位於遷入區;當節點位於低負載區時,需要主動遷入副本,來源節點是遷出區
  • 當所有節點都位於兩個均衡區時,集羣達到“足夠均衡”狀態,下面這個圖就是一種“足夠均衡”狀態

多維度調度策略

以前面的單維度調度爲基礎,多維度調度的目標是使集羣在多個維度上同時或儘量多地達到足夠均衡的狀態。

我們先想象一下,每個維度都有前面提到的示意圖表示它的均衡狀態,N 個維度就存在 N 個圖。當一個副本發生遷移的時候,會同時改變所有維度的均衡狀態,也就是說所有的示意圖都會發生改變。如果所有維度都變得更加均衡(均衡區的節點數變多了),或者一部分維度更均衡而另一部分維度不變(均衡區的節點數不變),那麼這個遷移是一個好的調度;反正,如果所有維度都變得更加不均衡(均衡區的節點數變少了),或者一部分維度更不均衡而另一部分維度不變,那麼這個遷移是一個不好的調度。還有第三種情況,一部分維度更均衡同時也有一部分維度更不均衡了,這是一箇中性的調度,往往這種中性的調度是不可避免的,例如集羣中只有 A、B 兩個節點,A 的流量更高而 B 的數據量更高,由 A 向 B 遷移副本會使流量更均衡而數據量更不均衡,由 B 向 A 遷移副本則相反。

爲了判斷這種中性的調度能否被允許,我們引入了優先級的概念,爲每個維度賦予一個唯一的優先級,犧牲低優維度的均衡度換來高優維度更加均衡是可被接受的,犧牲高優維度的均衡度換來低優維度更加均衡則不可被接受。

仍然考慮前面的例子,因爲流量過高會影響讀寫響應時間進而影響服務質量,我們認爲流量的優先級高於數據量優先級,因此由 A 向 B 遷移可被接受。但是也存在一個例外,假設 B 節點的剩餘磁盤空間已經接近 0,並且連集羣中最小的副本都無法容納時,即使流量的優先級更好,也不應該允許向 B 遷移任何副本了。爲了直觀表達這種資源飽和狀態,我們在示意圖上增加一條硬限線:

配合這個示意圖,多維度的負載均衡策略如下:

  • 將多個維度按照優先級排序,從高優維度到低優維度依次執行上文描述的單維度調度策略,僅對流程做少量修改:
  • 源節點上最接近Sbest但小於Sbest的副本爲候選遷移對象,如果它導致任一下列情況出現,則將它排除,選擇下一個副本作爲候選對象,直到找到合適的副本爲止:
    • 遷移之後,目標機器在更高優維度上將處於高水位線以上
    • 遷移之後,目標機器在更低優維度上將處於硬限線以上
  • 如果對於某一目標節點,源節點上無法選出遷移對象,將排在目標節點前一位的節點作爲新的目標節點,重複上述過程
  • 如果對於所有目標節點,源節點上仍然無法選出遷移對象,將該源節點從排序列表中剔除,重複上述過程

異構機型調度策略

對於同構機型,一個單位的負載在每個節點上都會使用同樣比例的資源,我們可以僅根據負載值進行調度,而不必這些負載使用了多少機器資源,但在異構機型上這是不成立的。舉個例子,同樣是從磁盤上讀取 1MB 的數據,在高性能服務器上可能只佔用 1%的 IO 帶寬和 1%的 CPU cycle,而在虛擬機上可能會佔用 5%的 IO 帶寬和 3%的 CPU cycle。在不同性能的節點上,同樣的負載將產生不同的資源利用率。

要將前面的調度策略應用到異構機型的場景中,首先要將按負載值進行調度修改爲按資源利用率進行調度。對於數據量來說,要改爲磁盤空間利用率;對於流量來說,要改爲 CPU 利用率、IO 利用率等等。爲了簡化策略,我們將內存、磁盤 IO、網絡 IO 等使用情況全部納入到 CPU 利用率中。解釋一下爲什麼這麼做:

  • 對內存來說,我們的進程內存使用量的上限是通過配置項控制的,在部署時,我們會保證內存使用量一定不會超過物理內存大小,剩餘物理內存全部用於操作系統的 buffer/cache,實際上也能夠被我們利用。內存大小會通過影響諸如 MemTable、BlockCache 的大小而影響節點性能,而這種影響最終會通過 CPU 和 IO 的使用量反映出來,所以我們考察 CPU 和 IO 的利用率就能把內存的使用情況納入進來。
  • 對於磁盤 IO 來說,IO 利用率最終也會反映在 CPU 利用率上(同步 IO 體現在 wa 上,異步 IO 體現在 sys 上),因此我們考察 CPU 利用率就能把磁盤 IO 的使用情況納入進來。
  • CPU 中有三級 cache,也有寄存器,在考慮 CPU 利用率時,會把它當作一個整體,不會單獨分析 cache 或是寄存器的使用情況。內存和磁盤可以想象成 CPU 的第四、五級 cache,內存越小、磁盤 IO 越慢,CPU 的利用率越高,可以將它們視爲一個整體。

異構調度要解決的第二個問題是,資源利用率和負載值之間的轉換關係。舉個例子,A、B 兩個節點的 CPU 利用率分別是 50%和 30%,節點上每個副本的讀寫請求也是已知的,如何從 A 節點選擇最佳的副本遷移到 B 節點,使 A、B 的 CPU 利用率差距最小,要求我們必須計算出每個副本在 A、B 節點上分別會產生多少 CPU 利用率。爲了做到這一點,我們儘可能多的收集了每個副本的讀寫請求信息,例如:

  • 讀寫請求的 key、value 大小
  • 讀的 cache 命中率
  • 更新的隨機化程度、刪除的比例

根據這些信息,將每個讀寫請求轉換成 N 個標準流量。例如,一個 1KB 以內的請求是一個標準流量,一個 1~2KB 的請求是 2 個標準流量;命中 cache 的請求是一個標準流量,未命中 cache 的請求是 2 個標準流量。知道節點上總的標準流量值,就能根據 CPU 利用率算出這個節點上一個標準流量對應的 CPU 利用率,進而能夠算出每個副本在每個節點上對應的 CPU 利用率了。

綜上,異構機型調度策略只需要在多維度調度策略的基礎上做出如下修改:

  • 節點按照資源利用率排序,而不是負載值
  • 每個副本的負載值要分別轉換成源節點的資源利用率和目標節點的資源利用率,在異構機型上,同一個副本的資源利用率會有較大的不同

其它調度策略

KVMaster 中,有一個定時任務執行上述的負載均衡策略,叫做“負載均衡調度器”,這裏不再贅述;同時,還有另一個定時任務,用來執行另一類調度,叫做“副本放置調度器”,除了副本安全級別(datacenter/rack/server)、節點異常檢測等基本策略之外,它還實現了下面幾種調度策略:

  • 業務隔離策略:不同 namespace/table 可以存放在不同的節點上。每個 namespace/table 可指定一個字符串類型的 tag,每個節點可指定一個或多個 tag,副本所在 namespace/table 的 tag 與某節點 tag 相同時,纔可放置在該節點上。調度器會對不滿足 tag 要求的副本進行調度。
  • 熱點檢測:當某個數據分片的數據量達到一定閾值時會發生分裂,除此之外,當它的讀寫流量超過平均值的某個倍數後,也會發生分裂。當分裂發生後,其中一個新產生的分片(左邊或右邊)的所有副本都會遷移至其他節點,避免節點成爲訪問熱點。
  • 碎片檢測:當某個數據分片的數據量和讀寫流量都小於平均值的一定比例時,會與它所相鄰的分片進行合併。合併前會將小分片的所有副本遷移至相鄰分片所在的節點上。

表格層

前面提到,KV 數據模型過於簡單,很難滿足一些複雜業務場景的需求。比如:

  • 字段數量和類型比較多
  • 需要在不同的字段維度上進行復雜條件的查詢
  • 字段或查詢維度經常隨着需求而變化。

我們需要更加豐富的數據模型來滿足這些場景的需求。在 KV 層之上,我們構建了表格層 ByteSQL,由前面提到的 SQLProxy 實現。ByteSQL 支持通過結構化查詢語言(SQL)來寫入和讀取,並基於 ByteKV 的批量寫入(WriteBatch)和快照讀接口實現了支持讀寫混合操作的交互式事務。

表格模型

在表格存儲模型中,數據按照數據庫(database), 表(table)兩個邏輯層級來組織和存放。同一個物理集羣中可以創建多個數據庫,而每個數據庫內也可以創建多個表。表的 Schema 定義中包含以下元素:

  • 表的基本屬性,包括數據庫名稱,表名稱,數據副本數等。
  • 字段定義:包含字段的名字,類型,是否允許空值,默認值等屬性。一個表中須至少包含一個字段。
  • 索引定義:包含索引名字,索引包含的字段列表,索引類型(Primary Key,Unique Key,Key 等)。一個表中有且僅有一個主鍵索引(Primary Key),用戶也可以加入二級索引(Key 或 Unique Key 類型)來提高 SQL 執行性能。每個索引都可以是單字段索引或多字段聯合索引。

表中的每一行都按照索引被編碼成多個 KV 記錄保存在 ByteKV 中,每種索引類型的編碼方式各不相同。Primary Key 的行中包含表中的所有字段的值,而二級索引的行中僅僅包含定義該索引和 Primary Key 的字段。具體每種索引的編碼方式如下:

Primary Key: pk_field1, pk_field2,... => non_pk_field1, non_pk_field2...
Unique Key: key_field1, key_field2,...=> pk_field1, pk_field2...
NonUnique Key: key_field1, key_field2,..., pk_field1, pk_field2...=> <null>

其中 pk_field 是定義 Primary Key 的字段,non_pk_field 是表中非 Primary Key 的字段,key_field 是定義某個二級索引的字段。=> 前後的內容分別對應 KV 層的 Key 和 Value 部分。Key 部分的編碼依然採用了上述提到的內存可比較編碼,從而保證了字段的自然順序與編碼之後的字節順序相同。而 Value 部分採用了與 protobuf 類似的變長編碼方式,儘量減少編碼後的數據大小。每個字段的編碼中使用 1 byte 來標識該值是否爲空值。

全局二級索引

用戶經常有使用非主鍵字段做查詢條件的需求,這就需要在這些字段上創建二級索引。在傳統的 Sharding 架構中(如 MySQL Shard 集羣),選取表中的某個字段做 Sharding Key,將整個表 Hash 到不同的 Shard 中。由於不同 Shard 之間沒有高效的分佈式事務機制,二級索引需要在每個 Shard 內創建(即局部二級索引)。這種方案的問題在於如果查詢條件不包含 Sharding Key,則需要掃描所有 Shard 做結果歸併,同時也無法實現全局唯一性約束。

爲解決這種問題,ByteSQL 實現了全局二級索引,將主鍵的數據和二級索引的數據分佈在 ByteKV 的不同的分片中,只根據二級索引上的查詢條件即可定位到該索引的記錄,進一步定位到對應的主鍵記錄。這種方式避免了掃描所有 Shard 做結果歸併的開銷,也可以通過創建 Unique Key 支持全局唯一性約束,具有很強的水平擴展性。

交互式事務

ByteSQL 基於 ByteKV 的多版本特性和多條記錄的原子性寫入(WriteBatch),實現了支持快照隔離級別(Snapshot Isolation)的讀寫事務,其基本實現思路如下:

  1. 用戶發起 Start Transaction 命令時,ByteSQL 從 ByteKV Master 獲取全局唯一的時間戳作爲事務的開始時間戳(Start Timestamp),Start Timestamp 既用作事務內的一致性快照讀版本,也用作事務提交時的衝突判斷。
  2. 事務內的所有寫操作緩存在 ByteSQL 本地的 Write Buffer 中,每個事務都有自己的 Write Buffer 實例。如果是刪除操作,也要在 Write Buffer 中寫入一個 Tombstone 標記。
  3. 事務內的所有讀操作首先讀 Write Buffer,如果 Write Buffer 中存在記錄則直接返回(若 Write Buffer 中存在 Tombstone 返回記錄不存在);否則嘗試讀取 ByteKV 中版本號小於 Start Timestamp 的記錄。
  4. 用戶發起 Commit Transaction 命令時,ByteSQL 調用 ByteKV 的 WriteBatch 接口將 Write Buffer 中緩存的記錄提交,此時提交是有條件的:對於 Write Buffer 中的每個 Key,都必須保證提交時不能存在比 Start Timestamp 更大的版本存在。如果條件不成立,則必須 Abort 當前事務。這個條件是通過 ByteKV 的 CAS 接口來實現的。

由上述過程可知,ByteSQL 實現了樂觀模式的事務衝突檢測。這種模式在寫入衝突率不高的場景下非常高效。如果衝突率很高,會導致事務被頻繁 Abort。

執行流程優化

ByteSQL 提供了更加豐富的 SQL 查詢語義,但比起 KV 模型中簡單的 Put,Get 和 Delete 等操作卻增加了額外的開銷。SQL 中的 Insert,Update 和 Delete 操作實際都是一個先讀後寫的流程。以 Update 爲例,先使用 Get 操作從 ByteKV 讀取舊值,在舊值上根據 SQL 的 Set 子句更新某些字段生成新值,然後用 Put 操作寫入新值到 ByteKV。

在一些場景下,某些字段的值可能是 ByteSQL 內自動生成的(如自動主鍵,以及具有 DEFAULT/ON UPDATE CURRENT_TIMESTAMP 屬性的時間字段)或根據依賴關係計算出來的(如 SET a = a+1),用戶需要在 Insert,Update 或 Delete 操作之後立即獲取實際變更的數據,需要在寫入之後執行一次 Select 操作。總共需要兩次 Get 操作和一次 Put 操作。爲了優化執行效率,ByteSQL 中實現了 PostgreSQL/Oracle 語法中的 Returning 語義:在同一個 Query 請求中將 Insert/Update 的新值或 Delete 的舊值返回,節省了一次 Get 開銷。

UPDATE table1 SET count = count + 1 WHERE id >= 10 RETURNING id, count;

在線 schema 變更

業務需求的不斷演進和變化導致 Schema 變更成爲無法逃避的工作,傳統數據庫內置的 Schema 變更方案一般需要阻塞整表的讀寫操作,這是線上應用所無法接受的。ByteSQL 使用了 Google F1 的在線 Schema 變更方案[3],變更過程中不會阻塞線上讀寫請求。

ByteSQL Schema 元數據包含了庫和表的定義,這些元數據都保存在 ByteKV 中。SQLProxy 實例是無狀態的,每個實例定期從 ByteKV 同步 Schema 到本地,用來解析並執行 Query 請求。同時集羣中有一個專門的 Schema Change Worker 實例負責監聽並執行用戶提交的 Schema 變更任務。Schema Change Worker 一旦監聽到用戶提交的 Schema 變更請求,就將其放到一個請求隊列中並按序執行。本節從數據一致性異常的產生和解決角度,闡述了引入 Schema 中間狀態的原因。詳細的正確性證明可以參考原論文。

由於不同的 SQLProxy 實例加載 Schema 的時機並不相同,整個集羣在同一時刻大概率會有多個版本的 Schema 在使用。如果 Schema 變更過程處理不當,會造成表中數據的不一致。以創建二級索引爲例,考慮如下的執行流程:

  1. Schema Change Worker 執行了一個 Create Index 變更任務,包括向 ByteKV 中填充索引記錄和寫入元數據。
  2. SQLProxy 實例 1 加載了包含新索引的 Schema 元數據。
  3. SQLProxy 實例 2 執行 Insert 請求。由於實例 2 尚未加載索引元數據,Insert 操作不包含新索引記錄的寫入。
  4. SQLProxy 實例 2 執行 Delete 請求。由於實例 2 尚未加載索引元數據,Delete 操作不包含新索引記錄的刪除。
  5. SQLProxy 實例 2 加載了包含新索引的 Schema 元數據。

第 3 步和第 4 步都會導致二級索引和主鍵索引數據的不一致的異常:第 3 步導致二級索引記錄的缺失(Lost Write),第 4 步導致二級索引記錄的遺留(Lost Delete)。這些異常的成因在於不同 SQLProxy 實例加載 Schema 的時間不同,導致有些實例認爲索引已經存在,而另外一些實例認爲索引不存在。具體而言,第 2 步 Insert 的異常是由於索引已經存在,而寫入方認爲其不存在;第 3 步的 Delete 異常是由於寫入方感知到了索引的存在,而刪除方未感知到。實際上,Update 操作可能會同時導致上述兩種異常。

爲了解決 Lost Write 異常,我們需要保證對於插入的每行數據,寫入實例需要先感知到索引存在,然後再寫入;而對於 Lost Delete 異常,需要保證同一行數據的刪除實例比寫入實例先感知到索引的存在(如果寫入實例先感知索引,刪除實例後感知,刪除時有可能會漏刪索引而導致 Lost Delete)。

然而,我們無法直接控制不同 SQLProxy 實例作爲寫入實例和刪除實例的感知順序,轉而使用了間接的方式:給 Schema 定義了兩種控制讀寫的中間狀態:DeleteOnly 狀態和 WriteOnly 狀態,Schema Change Worker 先寫入 DeleteOnly 狀態的 Schema 元數據,待元數據同步到所有實例後,再寫入 WriteOnly 狀態的 Schema 元數據。那些感知到 DeleteOnly 狀態的實例只能刪除索引記錄,不能寫入索引記錄;感知到 WriteOnly 狀態的實例既可以刪除又可以插入索引記錄。這樣就解決了 Lost Delete 異常。

而對於 Lost Write 異常,我們無法阻止尚未感知 Schema WriteOnly 狀態的實例寫入數據(因爲整個 Schema 變更過程是在線的),而是將填充索引記錄的過程(原論文中稱之爲 Reorg 操作)推遲到了 WriteOnly 階段之後執行,從而既填充了表中存量數據對應的索引記錄,也填充了那些因爲 Lost Write 異常而缺失的索引記錄。待填充操作完成後,就可以將 Schema 元數據更新爲對外可見的 Public 狀態了。

我們通過引入兩個中間狀態解決了 Schema 變更過程中數據不一致的異常。這兩個中間狀態均是對 ByteSQL 內部而言的,只有最終 Public 狀態的索引才能被用戶看到。這裏還有一個關鍵問題:如何在沒有全局成員信息的環境中確保將 Schema 狀態同步到所有 SQLProxy 實例中?解決方案是在 Schema 中維護一個全局固定的 Lease Time,每個 SQLProxy 在 Lease Time 到期前需要重新從 ByteKV 中加載 Schema 來續約。Schema Change Worker 每次更新 Schema 之後,需要等到所有 SQLProxy 加載成功後才能進行下一次更新。這就需要保證兩次更新 Schema 的間隔需要大於一定時間。至於多長的間隔時間是安全的,有興趣的讀者可以詳細閱讀原論文[3]來得到答案。如果某個 SQLProxy 因爲某種原因無法在 Lease Time 週期內加載 Schema,則設置當前 ByteSQL 實例爲不可用狀態,不再處理讀寫請求。

未來探討

更多的一致性級別

在跨機房部署的場景裏,總有部分請求需要跨機房獲取事務時間戳,這會增加響應延遲;同時跨機房的網絡環境不及機房內部穩定,跨機房網絡的穩定性直接影響到集羣的穩定性。實際上,部分業務場景並不需要強一致保證。在這些場景中,我們考慮引入混合邏輯時鐘 HLC[4]來替代原有的全局授時服務,將 ByteKV 改造成支持因果一致性的系統。同時,我們可以將寫入的時間戳作爲同步口令返回給客戶端,客戶端在後續的請求中攜帶上同步口令,以傳遞業務上存在因果關係而存儲系統無法識別的事件之間的 happen-before 關係,即會話一致性。

此外,還有部分業務對延遲極其敏感,又有多數據中心訪問的需求;而 ByteKV 多機房部署場景下無法避免跨機房延遲。如果這部分業務只需要機房之間保持最終一致即可,我們可以進行機房間數據同步,實現類最終一致性的效果。

Cloud Native

隨着 CloudNative 的進一步發展,以無可匹敵之勢深刻影響着現有的開發部署模型。ByteKV 也將進一步探索與 CloudNative 的深入結合。探索基於 Kubernetes 的 auto deployment, auto scaling, auto healing。進一步提高資源的利用率,降低運維的成本,增強服務的易用性。提供一個更方便於 CloudNative 用戶使用的 ByteKV。

參考文獻

[1] Ongaro D, Ousterhout J. In search of an understandable consensus algorithm (extended version)[J]. 2013.

[2] https://github.com/facebook/mysql-5.6/wiki/MyRocks-record-format#memcomparable-format

[3] Rae I, Rollins E, Shute J, et al. Online, asynchronous schema change in F1[J]. Proceedings of the VLDB Endowment, 2013, 6(11): 1045-1056.

[4] Kulkarni S, Demirbas M, Madeppa D, et al. Logical physical clocks and consistent snapshots in globally distributed databases[C]//The 18th International Conference on Principles of Distributed Systems. 2014.

[5] Peng D, Dabek F. Large-scale incremental processing using distributed transactions and notifications[J]. 2010.

[6] https://www.cockroachlabs.com/blog/how-cockroachdb-distributes-atomic-transactions/

[7] https://www.cockroachlabs.com/blog/serializable-lockless-distributed-isolation-cockroachdb/

[8] https://www.cockroachlabs.com/blog/living-without-atomic-clocks/

[9] Shute J, Oancea M, Ellner S, et al. F1-the fault-tolerant distributed rdbms supporting google’s ad business[J]. 2012.

[10] Corbett J C, Dean J, Epstein M, et al. Spanner: Google’s globally distributed database[J]. ACM Transactions on Computer Systems (TOCS), 2013, 31(3): 1-22.

[11] Ongaro D. Consensus: Bridging theory and practice[D]. Stanford University, 2014.

[12] Roohitavaf M, Ahn J S, Kang W H, et al. Session guarantees with raft and hybrid logical clocks[C]//Proceedings of the 20th International Conference on Distributed Computing and Networking. 2019: 100-109.

[13] Huang G, Cheng X, Wang J, et al. X-Engine: An optimized storage engine for large-scale E-commerce transaction processing[C]//Proceedings of the 2019 International Conference on Management of Data. 2019: 651-665.

本文轉載自公衆號字節跳動技術團隊(ID:toutiaotechblog)。

原文鏈接

https://mp.weixin.qq.com/s/DvUBnWBqb0XGnicKUb-iqg

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章