Apache Flink 進階(一):Runtime 核心機制剖析

1. 綜述

本文主要介紹 Flink Runtime 的作業執行的核心機制。首先介紹 Flink Runtime 的整體架構以及 Job 的基本執行流程,然後介紹在這個過程,Flink 是怎麼進行資源管理、作業調度以及錯誤恢復的。最後,本文還將簡要介紹 Flink Runtime 層當前正在進行的一些工作。

2. Flink Runtime 整體架構

Flink 的整體架構如圖 1 所示。Flink 是可以運行在多種不同的環境中的,例如,它可以通過單進程多線程的方式直接運行,從而提供調試的能力。它也可以運行在 Yarn 或者 K8S 這種資源管理系統上面,也可以在各種雲環境中執行。


圖1. Flink 的整體架構,其中 Runtime 層對不同的執行環境提供了一套統一的分佈式執行引擎。

針對不同的執行環境,Flink 提供了一套統一的分佈式作業執行引擎,也就是 Flink Runtime 這層。Flink 在 Runtime 層之上提供了 DataStream 和 DataSet 兩套 API,分別用來編寫流作業與批作業,以及一組更高級的 API 來簡化特定作業的編寫。本文主要介紹 Flink Runtime 層的整體架構。

Flink Runtime 層的主要架構如圖 2 所示,它展示了一個 Flink 集羣的基本結構。Flink Runtime 層的整個架構主要是在 FLIP-6 中實現的,整體來說,它採用了標準 master-slave 的結構,其中左側白色圈中的部分即是 master,它負責管理整個集羣中的資源和作業;而右側的兩個 TaskExecutor 則是 Slave,負責提供具體的資源並實際執行作業。


圖2. Flink 集羣的基本結構。Flink Runtime 層採用了標準的 master-slave 架構。

其中,Master 部分又包含了三個組件,即 Dispatcher、ResourceManager 和 JobManager。其中,Dispatcher 負責接收用戶提供的作業,並且負責爲這個新提交的作業拉起一個新的 JobManager 組件。ResourceManager 負責資源的管理,在整個 Flink 集羣中只有一個 ResourceManager。JobManager 負責管理作業的執行,在一個 Flink 集羣中可能有多個作業同時執行,每個作業都有自己的 JobManager 組件。這三個組件都包含在 AppMaster 進程中。

基於上述結構,當用戶提交作業的時候,提交腳本會首先啓動一個 Client進程負責作業的編譯與提交。它首先將用戶編寫的代碼編譯爲一個 JobGraph,在這個過程,它還會進行一些檢查或優化等工作,例如判斷哪些 Operator 可以 Chain 到同一個 Task 中。然後,Client 將產生的 JobGraph 提交到集羣中執行。此時有兩種情況,一種是類似於 Standalone 這種 Session 模式,AM 會預先啓動,此時 Client 直接與 Dispatcher 建立連接並提交作業即可。另一種是 Per-Job 模式,AM 不會預先啓動,此時 Client 將首先向資源管理系統 (如Yarn、K8S)申請資源來啓動 AM,然後再向 AM 中的 Dispatcher 提交作業。

當作業到 Dispatcher 後,Dispatcher 會首先啓動一個 JobManager 組件,然後 JobManager 會向 ResourceManager 申請資源來啓動作業中具體的任務。這時根據 Session 和 Per-Job 模式的區別, TaskExecutor 可能已經啓動或者尚未啓動。如果是前者,此時 ResourceManager 中已有記錄了 TaskExecutor 註冊的資源,可以直接選取空閒資源進行分配。否則,ResourceManager 也需要首先向外部資源管理系統申請資源來啓動 TaskExecutor,然後等待 TaskExecutor 註冊相應資源後再繼續選擇空閒資源進程分配。目前 Flink 中 TaskExecutor 的資源是通過 Slot 來描述的,一個 Slot 一般可以執行一個具體的 Task,但在一些情況下也可以執行多個相關聯的 Task,這部分內容將在下文進行詳述。ResourceManager 選擇到空閒的 Slot 之後,就會通知相應的 TM “將該 Slot 分配分 JobManager XX ”,然後 TaskExecutor 進行相應的記錄後,會向 JobManager 進行註冊。JobManager 收到 TaskExecutor 註冊上來的 Slot 後,就可以實際提交 Task 了。

TaskExecutor 收到 JobManager 提交的 Task 之後,會啓動一個新的線程來執行該 Task。Task 啓動後就會開始進行預先指定的計算,並通過數據 Shuffle 模塊互相交換數據。

以上就是 Flink Runtime 層執行作業的基本流程。可以看出,Flink 支持兩種不同的模式,即 Per-job 模式與 Session 模式。如圖 3 所示,Per-job 模式下整個 Flink 集羣只執行單個作業,即每個作業會獨享 Dispatcher 和 ResourceManager 組件。此外,Per-job 模式下 AppMaster 和 TaskExecutor 都是按需申請的。因此,Per-job 模式更適合運行執行時間較長的大作業,這些作業對穩定性要求較高,並且對申請資源的時間不敏感。與之對應,在 Session 模式下,Flink 預先啓動 AppMaster 以及一組 TaskExecutor,然後在整個集羣的生命週期中會執行多個作業。可以看出,Session 模式更適合規模小,執行時間短的作業。


圖3. Flink Runtime 支持兩種作業執行的模式。

3. 資源管理與作業調度

本節對 Flink 中資源管理與作業調度的功能進行更深入的說明。實際上,作業調度可以看做是對資源和任務進行匹配的過程。如上節所述,在 Flink 中,資源是通過 Slot 來表示的,每個 Slot 可以用來執行不同的 Task。而在另一端,任務即 Job 中實際的 Task,它包含了待執行的用戶邏輯。調度的主要目的就是爲了給 Task 找到匹配的 Slot。邏輯上來說,每個 Slot 都應該有一個向量來描述它所能提供的各種資源的量,每個 Task 也需要相應的說明它所需要的各種資源的量。但是實際上在 1.9 之前,Flink 是不支持細粒度的資源描述的,而是統一的認爲每個 Slot 提供的資源和 Task 需要的資源都是相同的。從 1.9 開始,Flink 開始增加對細粒度的資源匹配的支持的實現,但這部分功能目前仍在完善中。

作業調度的基礎是首先提供對資源的管理,因此我們首先來看下 Flink 中資源管理的實現。如上文所述,Flink 中的資源是由 TaskExecutor 上的 Slot 來表示的。如圖 4 所示,在 ResourceManager 中,有一個子組件叫做 SlotManager,它維護了當前集羣中所有 TaskExecutor 上的 Slot 的信息與狀態,如該 Slot 在哪個 TaskExecutor 中,該 Slot 當前是否空閒等。當 JobManger 來爲特定 Task 申請資源的時候,根據當前是 Per-job 還是 Session 模式,ResourceManager 可能會去申請資源來啓動新的 TaskExecutor。當 TaskExecutor 啓動之後,它會通過服務發現找到當前活躍的 ResourceManager 並進行註冊。在註冊信息中,會包含該 TaskExecutor中所有 Slot 的信息。 ResourceManager 收到註冊信息後,其中的 SlotManager 就會記錄下相應的 Slot 信息。當 JobManager 爲某個 Task 來申請資源時, SlotManager 就會從當前空閒的 Slot 中按一定規則選擇一個空閒的 Slot 進行分配。當分配完成後,如第 2 節所述,RM 會首先向 TaskManager 發送 RPC 要求將選定的 Slot 分配給特定的 JobManager。TaskManager 如果還沒有執行過該 JobManager 的 Task 的話,它需要首先向相應的 JobManager 建立連接,然後發送提供 Slot 的 RPC 請求。在 JobManager 中,所有 Task 的請求會緩存到 SlotPool 中。當有 Slot 被提供之後,SlotPool 會從緩存的請求中選擇相應的請求並結束相應的請求過程。


圖4. Flink 中資源管理功能各模塊交互關係。

當 Task 結束之後,無論是正常結束還是異常結束,都會通知 JobManager 相應的結束狀態,然後在 TaskManager 端將 Slot 標記爲已佔用但未執行任務的狀態。JobManager 會首先將相應的 Slot 緩存到 SlotPool 中,但不會立即釋放。這種方式避免瞭如果將 Slot 直接還給 ResourceManager,在任務異常結束之後需要重啓時,需要立刻重新申請 Slot 的問題。通過延時釋放,Failover 的 Task 可以儘快調度回原來的 TaskManager,從而加快 Failover 的速度。當 SlotPool 中緩存的 Slot 超過指定的時間仍未使用時,SlotPool 就會發起釋放該 Slot 的過程。與申請 Slot 的過程對應,SlotPool 會首先通知 TaskManager 來釋放該 Slot,然後 TaskExecutor 通知 ResourceManager 該 Slot 已經被釋放,從而最終完成釋放的邏輯。

除了正常的通信邏輯外,在 ResourceManager 和 TaskExecutor 之間還存在定時的心跳消息來同步 Slot 的狀態。在分佈式系統中,消息的丟失、錯亂不可避免,這些問題會在分佈式系統的組件中引入不一致狀態,如果沒有定時消息,那麼組件無法從這些不一致狀態中恢復。此外,當組件之間長時間未收到對方的心跳時,就會認爲對應的組件已經失效,並進入到 Failover 的流程。

在 Slot 管理基礎上,Flink 可以將 Task 調度到相應的 Slot 當中。如上文所述,Flink 尚未完全引入細粒度的資源匹配,默認情況下,每個 Slot 可以分配給一個 Task。但是,這種方式在某些情況下會導致資源利用率不高。如圖 5 所示,假如 A、B、C 依次執行計算邏輯,那麼給 A、B、C 分配分配單獨的 Slot 就會導致資源利用率不高。爲了解決這一問題,Flink 提供了 Share Slot 的機制。如圖 5 所示,基於 Share Slot,每個 Slot 中可以部署來自不同 JobVertex 的多個任務,但是不能部署來自同一個 JobVertex 的 Task。如圖5所示,每個 Slot 中最多可以部署同一個 A、B 或 C 的 Task,但是可以同時部署 A、B 和 C 的各一個 Task。當單個 Task 佔用資源較少時,Share Slot 可以提高資源利用率。 此外,Share Slot 也提供了一種簡單的保持負載均衡的方式。


圖5.Flink Share Slot 示例。使用 Share Slot 可以在每個 Slot 中部署來自不同 JobVertex 的多個 Task。

基於上述 Slot 管理和分配的邏輯,JobManager 負責維護作業中 Task執行的狀態。如上文所述,Client 端會向 JobManager 提交一個 JobGraph,它代表了作業的邏輯結構。JobManager 會根據 JobGraph 按並發展開,從而得到 JobManager 中關鍵的 ExecutionGraph。ExecutionGraph 的結構如圖 5 所示,與 JobGraph 相比,ExecutionGraph 中對於每個 Task 與中間結果等均創建了對應的對象,從而可以維護這些實體的信息與狀態。


圖6.Flink 中的 JobGraph 與 ExecutionGraph。ExecutionGraph 是 JobGraph 按並發展開所形成的,它是 JobMaster 中的核心數據結構。

在一個 Flink Job 中是包含多個 Task 的,因此另一個關鍵的問題是在 Flink 中按什麼順序來調度 Task。如圖 7 所示,目前 Flink 提供了兩種基本的調度邏輯,即 Eager 調度與 Lazy From Source。Eager 調度如其名子所示,它會在作業啓動時申請資源將所有的 Task 調度起來。這種調度算法主要用來調度可能沒有終止的流作業。與之對應,Lazy From Source 則是從 Source 開始,按拓撲順序來進行調度。簡單來說,Lazy From Source 會先調度沒有上游任務的 Source 任務,當這些任務執行完成時,它會將輸出數據緩存到內存或者寫入到磁盤中。然後,對於後續的任務,當它的前驅任務全部執行完成後,Flink 就會將這些任務調度起來。這些任務會從讀取上游緩存的輸出數據進行自己的計算。這一過程繼續進行直到所有的任務完成計算。


圖7. Flink 中兩種基本的調度策略。其中 Eager 調度適用於流作業,而Lazy From Source 適用於批作業。

4. 錯誤恢復

在 Flink 作業的執行過程中,除正常執行的流程外,還有可能由於環境等原因導致各種類型的錯誤。整體上來說,錯誤可能分爲兩大類:Task 執行出現錯誤或 Flink 集羣的 Master 出現錯誤。由於錯誤不可避免,爲了提高可用性,Flink 需要提供自動錯誤恢復機制來進行重試。

對於第一類 Task 執行錯誤,Flink 提供了多種不同的錯誤恢復策略。如圖 8 所示,第一種策略是 Restart-all,即直接重啓所有的 Task。對於 Flink 的流任務,由於 Flink 提供了 Checkpoint 機制,因此當任務重啓後可以直接從上次的 Checkpoint 開始繼續執行。因此這種方式更適合於流作業。第二類錯誤恢復策略是 Restart-individual,它只適用於 Task 之間沒有數據傳輸的情況。這種情況下,我們可以直接重啓出錯的任務。


圖8.Restart-all 錯誤恢復策略示例。該策略會直接重啓所有的 Task。


圖9.Restart-individual 錯誤恢復策略示例。該策略只適用於 Task之間不需要數據傳輸的作業,對於這種作業可以只重啓出現錯誤的 Task。

由於 Flink 的批作業沒有 Checkpoint 機制,因此對於需要數據傳輸的作業,直接重啓所有 Task 會導致作業從頭計算,從而導致一定的性能問題。爲了增強對 Batch 作業,Flink 在1.9中引入了一種新的Region-Based的Failover策略。在一個 Flink 的 Batch 作業中 Task 之間存在兩種數據傳輸方式,一種是 Pipeline 類型的方式,這種方式上下游 Task 之間直接通過網絡傳輸數據,因此需要上下游同時運行;另外一種是 Blocking 類型的試,如上節所述,這種方式下,上游的 Task 會首先將數據進行緩存,因此上下游的 Task 可以單獨執行。基於這兩種類型的傳輸,Flink 將 ExecutionGraph 中使用 Pipeline 方式傳輸數據的 Task 的子圖叫做 Region,從而將整個 ExecutionGraph 劃分爲多個子圖。可以看出,Region 內的 Task 必須同時重啓,而不同 Region 的 Task 由於在 Region 邊界存在 Blocking 的邊,因此,可以單獨重啓下游 Region 中的 Task。https://yiyuan.9939.com/yyk_62925/jieshao.html

基於這一思路,如果某個 Region 中的某個 Task 執行出現錯誤,可以分兩種情況進行考慮。如圖 8 所示,如果是由於 Task 本身的問題發生錯誤,那麼可以只重啓該 Task 所屬的 Region 中的 Task,這些 Task 重啓之後,可以直接拉取上游 Region 緩存的輸出結果繼續進行計算。

另一方面,如圖如果錯誤是由於讀取上游結果出現問題,如網絡連接中斷、緩存上游輸出數據的 TaskExecutor 異常退出等,那麼還需要重啓上游 Region 來重新產生相應的數據。在這種情況下,如果上游 Region 輸出的數據分發方式不是確定性的(如 KeyBy、Broadcast 是確定性的分發方式,而 Rebalance、Random 則不是,因爲每次執行會產生不同的分發結果),爲保證結果正確性,還需要同時重啓上游 Region 所有的下游 Region。


圖10.Region-based 錯誤恢復策略示例一。如果是由於下游任務本身導致的錯誤,可以只重啓下游對應的 Region。


圖11.Region-based 錯誤恢復策略示例二。如果是由於上游失敗導致的錯誤,那麼需要同時重啓上游的 Region 和下游的 Region。實際上,如果下游的輸出使用了非確定的數據分割方式,爲了保持數據一致性,還需要同時重啓所有上游 Region 的下游 Region。

除了 Task 本身執行的異常外,另一類異常是 Flink 集羣的 Master 進行發生異常。目前 Flink 支持啓動多個 Master 作爲備份,這些 Master 可以通過 ZK 來進行選主,從而保證某一時刻只有一個 Master 在運行。當前活路的 Master 發生異常時,某個備份的 Master 可以接管協調的工作。爲了保證 Master 可以準確維護作業的狀態,Flink 目前採用了一種最簡單的實現方式,即直接重啓整個作業。實際上,由於作業本身可能仍在正常運行,因此這種方式存在一定的改進空間。鄭州不孕不育醫院:http://www.zzchyy110.com/

5. 未來展望

Flink目前仍然在Runtime部分進行不斷的迭代和更新。目前來看,Flink未來可能會在以下幾個方式繼續進行優化和擴展:

  • 更完善的資源管理:從 1.9 開始 Flink 開始了對細粒度資源匹配的支持。基於細粒度的資源匹配,用戶可以爲 TaskExecutor 和 Task 設置實際提供和使用的 CPU、內存等資源的數量,Flink 可以按照資源的使用情況進行調度。這一機制允許用戶更大範圍的控製作業的調度,從而爲進一步提高資源利用率提供了基礎。

  • 統一的 Stream 與 Batch:Flink 目前爲流和批分別提供了 DataStream 和 DataSet 兩套接口,在一些場景下會導致重複實現邏輯的問題。未來 Flink 會將流和批的接口都統一到 DataStream 之上。

  • 更靈活的調度策略:Flink 從 1.9 開始引入調度插件的支持,從而允許用戶來擴展實現自己的調度邏輯。未來 Flink 也會提供更高性能的調度策略的實現。

  • Master Failover 的優化:如上節所述,目前 Flink 在 Master Failover 時需要重啓整個作業,而實際上重啓作業並不是必須的邏輯。Flink 未來會對 Master failover 進行進一步的優化來避免不必要的作業重啓。


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章