TiDB Ecosystem Tools 原理解讀系列(三)TiDB-DM 架構設計與實現原理

作者:張學程

簡介

TiDB-DM(Data Migration)是用於將數據從 MySQL/MariaDB 遷移到 TiDB 的工具。該工具既支持以全量備份文件的方式將 MySQL/MariaDB 的數據導入到 TiDB,也支持通過解析執行 MySQL/MariaDB binlog 的方式將數據增量同步到 TiDB。特別地,對於有多個 MySQL/MariaDB 實例的分庫分表需要合併後同步到同一個 TiDB 集羣的場景,DM 提供了良好的支持。如果你需要從 MySQL/MariaDB 遷移到 TiDB,或者需要將 TiDB 作爲 MySQL/MariaDB 的從庫,DM 將是一個非常好的選擇。

架構設計

DM 是集羣模式的,其主要由 DM-master、DM-worker 與 DM-ctl 三個組件組成,能夠以多對多的方式將多個上游 MySQL 實例的數據同步到多個下游 TiDB 集羣,其架構圖如下:

1.png

  • DM-master:管理整個 DM 集羣,維護集羣的拓撲信息,監控各個 DM-worker 實例的運行狀態;進行數據同步任務的拆解與分發,監控數據同步任務的執行狀態;在進行合庫合表的增量數據同步時,協調各 DM-worker 上 DDL 的執行或跳過;提供數據同步任務管理的統一入口。
  • DM-worker:與上游 MySQL 實例一一對應,執行具體的全量、增量數據同步任務;將上游 MySQL 的 binlog 拉取到本地並持久化保存;根據定義的數據同步任務,將上游 MySQL 數據全量導出成 SQL 文件後導入到下游 TiDB,或解析本地持久化的 binlog 後增量同步到下游 TiDB;編排 DM-master 拆解後的數據同步子任務,監控子任務的運行狀態。
  • DM-ctl:命令行交互工具,通過連接到 DM-master 後,執行 DM 集羣的管理與數據同步任務的管理。

實現原理

數據遷移流程

單個 DM 集羣可以同時運行多個數據同步任務;對於每一個同步任務,可以拆解爲多個子任務同時由多個 DM-worker 節點承擔,其中每個 DM-worker 節點負責同步來自對應的上游 MySQL 實例的數據。對於單個 DM-worker 節點上的單個數據同步子任務,其數據遷移流程如下,其中上部的數據流向爲全量數據遷移、下部的數據流向爲增量數據同步:

2.png

在每個 DM-worker 節點內部,對於特定的數據同步子任務,主要由 dumper、loader、relay 與 syncer(binlog replication)等數據同步處理單元執行具體的數據同步操作。

  • 對於全量數據遷移,DM 首先使用 dumper 單元從上游 MySQL 中將表結構與數據導出成 SQL 文件;然後使用 loader 單元讀取這些 SQL 文件並同步到下游 TiDB。
  • 對於增量數據同步,首先使用 relay 單元作爲 slave 連接到上游 MySQL 並拉取 binlog 數據後作爲 relay log 持久化存儲在本地,然後使用 syncer 單元讀取這些 relay log 並解析構造成 SQL 語句後同步到下游 TiDB。這個增量同步的過程與 MySQL 的主從複製類似,主要區別在於在 DM 中,本地持久化的 relay log 可以同時供多個不同子任務的 syncer 單元所共用,避免了多個任務需要重複從上游 MySQL 拉取 binlog 的問題。

數據遷移併發模型

爲加快數據導入速度,在 DM 中不論是全量數據遷移,還是增量數據同步,都在其中部分階段使用了併發處理。

對於全量數據遷移,在導出階段,dumper 單元調用 mydumper 導出工具執行實際的數據導出操作,對應的併發模型可以直接參考 mydumper 的源碼。在使用 loader 單元執行的導入階段,對應的併發模型結構如下:

3.png

使用 mydumper 執行導出時,可以通過 --chunk-filesize 等參數將單個表拆分成多個 SQL 文件,這些 SQL 文件對應的都是上游 MySQL 某一個時刻的靜態快照數據,且各 SQL 文件間的數據不存在關聯。因此,在使用 loader 單元執行導入時,可以直接在一個 loader 單元內啓動多個 worker 工作協程,由各 worker 協程併發、獨立地每次讀取一個待導入的 SQL 文件進行導入。即 loader 導入階段,是以 SQL 文件級別粒度併發進行的。在 DM 的任務配置中,對於 loader 單元,其中的 pool-size 參數即用於控制此處 worker 協程數量。

對於增量數據同步,在從上游拉取 binlog 並持久化到本地的階段,由於上游 MySQL 上 binlog 的產生與發送是以 stream 形式進行的,因此這部分只能串行處理。在使用 syncer 單元執行的導入階段,在一定的限制條件下,可以執行併發導入,對應的模型結構如下:

4.png

當 syncer 讀取與解析本地 relay log 時,與從上游拉取 binlog 類似,是以 stream 形式進行的,因此也只能串行處理。當 syncer 解析出各 binlog event 並構造成待同步的 job 後,則可以根據對應行數據的主鍵、索引等信息經過 hash 計算後分發到多個不同的待同步 job channel 中;在 channel 的另一端,與各個 channel 對應的 worker 協程併發地從 channel 中取出 job 後同步到下游的 TiDB。即 syncer 導入階段,是以 binlog event 級別粒度併發進行的。在 DM 的任務配置中,對於 syncer 單元,其中的 worker-count 參數即用於控制此處 worker 協程數量。

但 syncer 併發同步到下游 TiDB 時,存在一些限制,主要包括:

  • 對於 DDL,由於會變更下游的表結構,因此必須確保在舊錶結構對應的 DML 都同步完成後,才能進行同步。在 DM 中,當解析 binlog event 得到 DDL 後,會向每一個 job channel 發送一個特殊的 flush job;當各 worker 協程遇到 flush job 時,會立刻向下遊 TiDB 同步之前已經取出的所有 job;等各 job channel 中的 job 都同步到下游 TiDB 後,開始同步 DDL;等待 DDL 同步完成後,繼續同步後續的 DML。即 DDL 不能與 DML 併發同步,且 DDL 之前與之後的 DML 也不能併發同步。sharding 場景下 DDL 的同步處理見後文。
  • 對於 DML,多條 DML 可能會修改同一行的數據,甚至是主鍵。如果併發地同步這些 DML,則可能造成同步後數據的不一致。DM 中對於 DML 之間的衝突檢測與處理,與 TiDB-Binlog 中的處理類似,具體原理可以閱讀《TiDB EcoSystem Tools 原理解讀(一)TiDB-Binlog 架構演進與實現原理》中關於 Drainer 內 SQL 之間衝突檢測的討論。

合庫合表數據同步

在使用 MySQL 支撐大量數據時,經常會選擇使用分庫分表的方案。但當將數據同步到 TiDB 後,通常希望邏輯上進行合庫合表。DM 爲支持合庫合表的數據同步,主要實現了以下的一些功能。

table router

爲說明 DM 中 table router(表名路由)功能,先看如下圖所示的一個例子:

5.png

在這個例子中,上游有 2 個 MySQL 實例,每個實例有 2 個邏輯庫,每個庫有 2 個表,總共 8 個表。當同步到下游 TiDB 後,希望所有的這 8 個表最終都合併同步到同一個表中。

但爲了能將 8 個來自不同實例、不同庫且有不同名的表同步到同一個表中,首先要處理的,就是要能根據某些定義好的規則,將來自不同表的數據都路由到下游的同一個表中。在 DM 中,這類規則叫做 router-rules。對於上面的示例,其規則如下:

name-of-router-rule:
    schema-pattern: "schema_*"
    table-pattern: "table_*"
    target-schema: "schema"
    target-table: "table"
  • name-of-router-rule:規則名,用戶指定。當有多個上游實例需要使用相同的規則時,可以只定義一條規則,多個不同的實例通過規則名進行引用。
  • schema-pattern:用於匹配上游庫(schema)名的模式,支持在尾部使用通配符(*)。這裏使用 schema_* 即可匹配到示例中的兩個庫名。
  • table-pattern:用於匹配上游表名的模式,與 schema-pattern 類似。這裏使用 table_* 即可匹配到示例中的兩個表名。
  • target-schema:目標庫名。對於庫名、表名匹配的數據,將被路由到這個庫中。
  • target-table:目標表名。對於庫名、表名匹配的數據,將被路由到 target-schema 庫下的這個表中。

在 DM 內部實現上,首先根據 schema-pattern / table-pattern 構造對應的 trie 結構,並將規則存儲在 trie 節點中;當有 SQL 需要同步到下游時,通過使用上游庫名、表名查詢 trie 即可得到對應的規則,並根據規則替換原 SQL 中的庫名、表名;通過向下遊 TiDB 執行替換後的 SQL 即完成了根據表名的路由同步。有關 router-rules 規則的具體實現,可以閱讀 TiDB-Tools 下的 table-router pkg 源代碼

column mapping

有了 table router 功能,已經可以完成基本的合庫合表數據同步了。但在數據庫中,我們經常會使用自增類型的列作爲主鍵。如果多個上游分表的主鍵各自獨立地自增,將它們合併同步到下游後,就很可能會出現主鍵衝突,造成數據的不一致。我們可看一個如下的例子:

6.png

在這個例子中,上游 4 個需要合併同步到下游的表中,都存在 id 列值爲 1 的記錄。假設這個 id 列是表的主鍵。在同步到下游的過程中,由於相關更新操作是以 id 列作爲條件來確定需要更新的記錄,因此會造成後同步的數據覆蓋前面已經同步過的數據,導致部分數據的丟失。

在 DM 中,我們通過 column mapping 功能在數據同步的過程中依據指定規則對相關列的數據進行轉換改寫來避免數據衝突與丟失。對於上面的示例,其中 MySQL 實例 1 的 column mapping 規則如下:

mapping-rule-of-instance-1:
    schema-pattern: "schema_*"
    table-pattern: "table_*"
    expression: "partition id"
    source-column: "id"
    target-column: "id"
    arguments: ["1", "schema_", "table_"]  
  • mapping-rule-of-instance-1:規則名,用戶指定。由於不同的上游 MySQL 實例需要轉換得到不同的值,因此通常每個 MySQL 實例使用一條專有的規則。
  • schema-pattern / table-pattern:上游庫名、表名匹配模式,與 router-rules 中的對應配置項一致。
  • expression:進行數據轉換的表達式名。目前常用的表達式即爲 "partition id",有關該表達式的具體說明見下文。
  • source-column:轉換表達式的輸入數據對應的來源列名,"id" 表示這個表達式將作用於表中名爲 id 的列。暫時只支持對單個來源列進行數據轉換。
  • target-column:轉換表達式的輸出數據對應的目標列名,與 source-column 類似。暫時只支持對單個目標列進行數據轉換,且對應的目標列必須已經存在。
  • arguments:轉換表達式所依賴的參數。參數個數與含義依具體表達式而定。

partition id 是目前主要受支持的轉換表達式,其通過爲 bigint 類型的值增加二進制前綴來解決來自不同表的數據合併同步後可能產生衝突的問題。partition id 的 arguments 包括 3 個參數,分別爲:

  • MySQL 實例 ID:標識數據的來源 MySQL 實例,用戶自由指定。如 "1" 表示匹配該規則的數據來自於 MySQL 實例 1,且這個標識將被轉換成數值後以二進制的形式作爲前綴的一部分添加到轉換後的值中。
  • 庫名前綴:標識數據的來源邏輯庫。如 "schema_" 應用於 schema_2 邏輯庫時,表示去除前綴後剩下的部分(數字 2)將以二進制的形式作爲前綴的一部分添加到轉換後的值中。
  • 表名前綴:標識數據的來源表。如 "table_" 應用於 table_3 表時,表示去除前綴後剩下的部分(數字 3)將以二進制的形式作爲前綴的一部分添加到轉換後的值中。

各部分在經過轉換後的數值中的二進制分佈如下圖所示(各部分默認所佔用的 bits 位數如圖所示):

7.png

假如轉換前的原始數據爲 123,且有如上的 arguments 參數設置,則轉換後的值爲:

1<<(64-1-4) | 2<<(64-1-4-7) | 3<<(64-1-4-7-8) | 123

另外,arguments 中的 3 個參數均可設置爲空字符串(""),即表示該部分不被添加到轉換後的值中,且不佔用額外的 bits。比如將其設置爲["1", "", "table_"],則轉換後的值爲:

1 << (64-1-4) | 3<< (64-1-4-8) | 123

有關 column mapping 功能的具體實現,可以閱讀 TiDB-Tools 下的 column-mapping pkg 源代碼

sharding DDL

有了 table router 和 column mapping 功能,DML 的合庫合表數據同步已經可以正常進行了。但如果在增量數據同步的過程中,上游待合併的分表上執行了 DDL 操作,則可能出現問題。我們先來看一個簡化後的在分表上執行 DDL 的例子。

8.png

在上圖的例子中,分表的合庫合表簡化成了上游只有兩個 MySQL 實例,每個實例內只有一個表。假設在開始數據同步時,將兩個分表的表結構 schema 的版本記爲 schema V1,將 DDL 執行完成後的表結構 schema 的版本記爲 schema V2

現在,假設數據同步過程中,從兩個上游分表收到的 binlog 數據有如下的時序:

  1. 開始同步時,從兩個分表收到的都是 schema V1 的 DML。
  2. 在 t1 時刻,收到實例 1 上分表的 DDL。
  3. 從 t2 時刻開始,從實例 1 收到的是 schema V2 的 DML;但從實例 2 收到的仍是 schema V1 的 DML。
  4. 在 t3 時刻,收到實例 2 上分表的 DDL。
  5. 從 t4 時刻開始,從實例 2 收到的也是 schema V2 的 DML。

假設在數據同步過程中,不對分表的 DDL 進行處理。當將實例 1 的 DDL 同步到下游後,下游的表結構會變更成爲 schema V2。但對於實例 2,在 t2 時刻到 t3 時刻這段時間內收到的仍然是 schema V1 的 DML。當嘗試把這些與 schema V1 對應的 DML 同步到下游時,就會由於 DML 與表結構的不一致而發生錯誤,造成數據無法正確同步。

繼續使用上面的例子,來看看我們在 DM 中是如何處理合庫合表過程中的 DDL 同步的。

9.png

在這個例子中,DM-worker-1 用於同步來自 MySQL 實例 1 的數據,DM-worker-2 用於同步來自 MySQL 實例 2 的數據,DM-master 用於協調多個 DM-worker 間的 DDL 同步。從 DM-worker-1 收到 DDL 開始,簡化後的 DDL 同步流程爲:

  1. DM-worker-1 在 t1 時刻收到來自 MySQL 實例 1 的 DDL,自身暫停該 DDL 對應任務的 DDL 及 DML 數據同步,並將 DDL 相關信息發送給 DM-master。
  2. DM-master 根據 DDL 信息判斷需要協調該 DDL 的同步,爲該 DDL 創建一個鎖,並將 DDL 鎖信息發回給 DM-worker-1,同時將 DM-worker-1 標記爲這個鎖的 owner。
  3. DM-worker-2 繼續進行 DML 的同步,直到在 t3 時刻收到來自 MySQL 實例 2 的 DDL,自身暫停該 DDL 對應任務的數據同步,並將 DDL 相關信息發送給 DM-master。
  4. DM-master 根據 DDL 信息判斷該 DDL 對應的鎖信息已經存在,直接將對應鎖信息發回給 DM-worker-2。
  5. DM-master 根據啓動任務時的配置信息、上游 MySQL 實例分表信息、部署拓撲信息等,判斷得知已經收到了需要合表的所有上游分表的該 DDL,請求 DDL 鎖的 owner(DM-worker-1)向下遊同步執行該 DDL。
  6. DM-worker-1 根據 step 2 時收到的 DDL 鎖信息驗證 DDL 執行請求;向下遊執行 DDL,並將執行結果反饋給 DM-master;若執行 DDL 成功,則自身開始繼續同步後續的(從 t2 時刻對應的 binlog 開始的)DML。
  7. DM-master 收到來自 owner 執行 DDL 成功的響應,請求在等待該 DDL 鎖的所有其他 DM-worker(DM-worker-2)忽略該 DDL,直接繼續同步後續的(從 t4 時刻對應的 binlog 開始的)DML。

根據上面 DM 處理多個 DM-worker 間的 DDL 同步的流程,歸納一下 DM 內處理多個 DM-worker 間 sharding DDL 同步的特點:

  • 根據任務配置與 DM 集羣部署拓撲信息,在 DM-master 內建立一個需要協調 DDL 同步的邏輯 sharding group,group 中的成員爲處理該任務拆解後各子任務的 DM-worker。
  • 各 DM-worker 在從 binlog event 中獲取到 DDL 後,會將 DDL 信息發送給 DM-master。
  • DM-master 根據來自 DM-worker 的 DDL 信息及 sharding group 信息創建/更新 DDL 鎖。
  • 如果 sharding group 的所有成員都收到了某一條 DDL,則表明上游分表在該 DDL 執行前的 DML 都已經同步完成,可以執行 DDL,並繼續後續的 DML 同步。
  • 上游分表的 DDL 在經過 table router 轉換後,對應需要在下游執行的 DDL 應該一致,因此僅需 DDL 鎖的 owner 執行一次即可,其他 DM-worker 可直接忽略對應的 DDL。

從 DM 處理 DM-worker 間 sharding DDL 同步的特點,可以看出該功能存在以下一些限制:

  • 上游的分表必須以相同的順序執行(table router 轉換後相同的)DDL,比如表 1 先增加列 a 後再增加列 b,而表 2 先增加列 b 後再增加列 a,這種不同順序的 DDL 執行方式是不支持的。
  • 一個邏輯 sharding group 內的所有 DM-worker 對應的上游分表,都應該執行對應的 DDL,比如其中有 DM-worker-2 對應的上游分表未執行 DDL,則其他已執行 DDL 的 DM-worker 都會暫停同步任務,等待 DM-worker-2 收到對應上游的 DDL。
  • 由於已經收到的 DDL 的 DM-worker 會暫停任務以等待其他 DM-worker 收到對應的 DDL,因此數據同步延遲會增加。
  • 增量同步開始時,需要合併的所有上游分表結構必須一致,才能確保來自不同分表的 DML 可以同步到一個確定表結構的下游,也才能確保後續各分表的 DDL 能夠正確匹配與同步。

在上面的示例中,每個 DM-worker 對應的上游 MySQL 實例中只有一個需要進行合併的分表。但在實際場景下,一個 MySQL 實例可能有多個分庫內的多個分表需要進行合併,比如前面介紹 table router 與 column mapping 功能時的例子。當一個 MySQL 實例中有多個分表需要合併時,sharding DDL 的協調同步過程增加了更多的複雜性。

假設同一個 MySQL 實例中有 table_1table_2 兩個分表需要進行合併,如下圖:

10.png

由於數據來自同一個 MySQL 實例,因此所有數據都是從同一個 binlog 流中獲得。在這個例子中,時序如下:

  1. 開始同步時,兩個分表收到的數據都是 schema V1 的 DML。
  2. 在 t1 時刻,收到了 table_1 的 DDL。
  3. 從 t2 時刻到 t3 時刻,收到的數據同時包含 table_1 schema V2 的 DML 及 table_2 schema V1 的 DML。
  4. 在 t3 時刻,收到了 table_2 的 DDL。
  5. 從 t4 時刻開始,兩個分表收到的數據都是 schema V2 的 DML。

假設在數據同步過程中不對 DDL 進行特殊處理,當 table_1 的 DDL 同步到下游、變更下游表結構後,table_2 schema V1 的 DML 將無法正常同步。因此,在單個 DM-worker 內部,我們也構造了與 DM-master 內類似的邏輯 sharding group,但 group 的成員是同一個上游 MySQL 實例的不同分表。

但 DM-worker 內協調處理 sharding group 的同步不能完全與 DM-master 處理時一致,主要原因包括:

  • 當收到 table_1 的 DDL 時,同步不能暫停,需要繼續解析 binlog 才能獲得後續 table_2 的 DDL,即需要從 t2 時刻繼續向前解析直到 t3 時刻。
  • 在繼續解析 t2 時刻到 t3 時刻的 binlog 的過程中,table_1schema V2 的 DML 不能向下遊同步;但在 sharding DDL 同步並執行成功後,這些 DML 需要同步到下游。

在 DM 中,簡化後的 DM-worker 內 sharding DDL 同步流程爲:

  1. 在 t1 時刻收到 table_1 的 DDL,記錄 DDL 信息及此時的 binlog 位置點信息。
  2. 繼續向前解析 t2 時刻到 t3 時刻的 binlog。
  3. 對於屬於 table_1schema V2 DML,忽略;對於屬於 table_2schema V1 DML,正常同步到下游。
  4. 在 t3 時刻收到 table_2 的 DDL,記錄 DDL 信息及此時的 binlog 位置點信息。
  5. 根據同步任務配置信息、上游庫表信息等,判斷該 MySQL 實例上所有分表的 DDL 都已經收到;將 DDL 同步到下游執行、變更下游表結構。
  6. 設置新的 binlog 流的解析起始位置點爲 step 1 時保存的位置點。
  7. 重新開始解析從 t2 時刻到 t3 時刻的 binlog。
  8. 對於屬於 table_1schema V2 DML,正常同步到下游;對於屬於 table_2shema V1 DML,忽略。
  9. 解析到達 step 4 時保存的 binlog 位置點,可得知在 step 3 時被忽略的所有 DML 都已經重新同步到下游。
  10. 繼續從 t4 時刻對應的 binlog 位置點正常同步。

從上面的分析可以知道,DM 在處理 sharding DDL 同步時,主要通過兩級 sharding group 來進行協調控制,簡化的流程爲:

  1. 各 DM-worker 獨立地協調對應上游 MySQL 實例內多個分表組成的 sharding group 的 DDL 同步。
  2. 當 DM-worker 內所有分表的 DDL 都收到時,向 DM-master 發送 DDL 相關信息。
  3. DM-master 根據 DM-worker 發來的 DDL 信息,協調由各 DM-worker 組成的 sharing group 的 DDL 同步。
  4. 當 DM-master 收到所有 DM-worker 的 DDL 信息時,請求 DDL lock 的 owner(某個 DM-worker)執行 DDL。
  5. owner 執行 DDL,並將結果反饋給 DM-master;自身開始重新同步在內部協調 DDL 同步過程中被忽略的 DML。
  6. 當 DM-master 發現 owner 執行 DDL 成功後,請求其他所有 DM-worker 開始繼續同步。
  7. 其他所有 DM-worker 各自開始重新同步在內部協調 DDL 同步過程中被忽略的 DML。
  8. 所有 DM-worker 在重新同步完成被忽略的 DML 後,繼續正常同步。

數據同步過濾

在進行數據同步的過程中,有時可能並不需要將上游所有的數據都同步到下游,這時一般期望能在同步過程中根據某些規則,過濾掉部分不期望同步的數據。在 DM 中,支持 2 種不同級別的同步過濾方式。

庫表黑白名單

DM 在 dumper、loader、syncer 三個處理單元中都支持配置規則只同步/不同步部分庫或表。

對於 dumper 單元,其實際調用 mydumper 來 dump 上游 MySQL 的數據。比如只期望導出 test 庫中的 t1、t2 兩個表的數據,則可以爲 dumper 單元配置如下規則:

name-of-dump-rule:
    extra-args: "-B test -T t1,t2"
  • name-of-dump-rule:規則名,用戶指定。當有多個上游實例需要使用相同的規則時,可以只定義一條規則,多個不同的實例通過規則名進行引用。
  • extra-args:dumper 單元額外參數。除 dumper 單元中明確定義的配置項外的其他所有 mydumper 配置項都通過此參數傳入,格式與使用 mydumper 時一致。

有關 mydumper 對庫表黑白名單的支持,可查看 mydumper 的參數及 mydumper 的源碼

對於 loader 和 syncer 單元,其對應的庫表黑白名單規則爲 black-white-list。假設只期望同步 test 庫中的 t1、t2 兩個表的數據,則可配置如下規則:

name-of-bwl-rule:
    do-tables:
    - db-name: "test"
      tbl-name: "t1"
    - db-name: "test"
      tbl-name: "t2"

示例中只使用了該規則的部分配置項,完整的配置項及各配置項的含義,可閱讀該功能對應的用戶文檔。DM 中該規則與 MySQL 的主從同步過濾規則類似,因此也可參考 Evaluation of Database-Level Replication and Binary Logging OptionsEvaluation of Table-Level Replication Options

對於 loader 單元,在解析 SQL 文件名獲得庫名錶名後,會與配置的黑白名單規則進行匹配,如果匹配結果爲不需要同步,則會忽略對應的整個 SQL 文件。對於 syncer 單元,在解析 binlog 獲得庫名錶名後,會與配置的黑白名單規則進行匹配,如果匹配結果爲不需要同步,則會忽略對應的(部分)binlog event 數據。

binlog event 過濾

在進行增量數據同步時,有時會期望過濾掉某些特定類型的 binlog event,兩個典型的場景包括:

  • 上游執行 TRUNCATE TABLE 時不希望清空下游表中的數據。
  • 上游分表上執行 DROP TABLE 時不希望 DROP 下游合併後的表。

在 DM 中支持根據 binlog event 的類型進行過濾,對於需要過濾 TRUNCATE TABLEDROP TABLE 的場景,可配置規則如下:

name-of-filter-rule:
​    schema-pattern: "test_*"
​    table-pattern: "t_*"
​    events: ["truncate table", "drop table"]
​    action: Ignore

規則的匹配模式與 table router、column mapping 類似,具體的配置項可閱讀該功能對應的用戶文檔。

在實現上,當解析 binlog event 獲得庫名、表名及 binlog event 類型後,與配置的規則進行匹配,並在匹配後依據 action 配置項來決定是否需要進行過濾。有關 binlog event 過濾功能的具體實現,可以閱讀 TiDB-Tools 下的 binlog-filter pkg 源代碼

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章