我們爲什麼會刪除不了集羣的 Namespace?

作者 | 聲東  阿里雲售後技術專家

導讀:阿里雲售後技術團隊的同學,每天都在處理各式各樣千奇百怪的線上問題。常見的有網絡連接失敗、服務器宕機、性能不達標及請求響應慢等。但如果要評選的話,什麼問題看起來微不足道事實上卻讓人絞盡腦汁,我相信肯定是“刪不掉”的問題,比如文件刪不掉、進程結束不掉、驅動卸載不了等。這樣的問題就像冰山,隱藏在它們背後的複雜邏輯,往往超過我們的預想。

背景

今天我們討論的這個問題,跟 K8s 集羣的 Namespace 有關。Namespace 是 K8s 集羣資源的“收納”機制。我們可以把相關的資源“收納”到同一個 Namespace 裏,以避免不相關資源之間不必要的影響。

Namespace 本身也是一種資源。通過集羣 API Server 入口,我們可以新建 Namespace,而對於不再使用的 Namespace,我們需要清理掉。Namespace 的 Controller 會通過 API Server,監視集羣中 Namespace 的變化,然後根據變化來執行預先定義的動作。

1.png

有時候,我們會遇到下圖中的問題,即 Namespace 的狀態被標記成了 “Terminating”,但卻沒有辦法被完全刪除。

2.png

從集羣入口開始

因爲刪除操作是通過集羣 API Server 來執行的,所以我們要分析 API Server 的行爲。跟大多數集羣組件類似,API Server 提供了不同級別的日誌輸出。爲了理解 API Server 的行爲,我們將日誌級別調整到最高級。然後,通過創建刪除 tobedeletedb 這個 Namespace 來重現問題。

但可惜的是,API Server 並沒有輸出太多和這個問題有關的日誌。

相關的日誌,可以分爲兩部分:

  • 一部分是 Namespace 被刪除的記錄,記錄顯示客戶端工具是 kubectl,以及發起操作的源 IP 地址是 192.168.0.41,這符合預期;
  • 另外一部分是 Kube Controller Manager 在重複地獲取這個 Namespace 的信息。

3.png

Kube Controller Manager 實現了集羣中大多數的 Controller,它在重複獲取 tobedeletedb 的信息,基本上可以判斷,是 Namespace 的 Controller 在獲取這個 Namespace 的信息。

Controller 在做什麼?

和上一節類似,我們通過開啓 Kube Controller Manager 最高級別日誌,來研究這個組件的行爲。在 Kube Controller Manager 的日誌裏,可以看到 Namespace 的 Controller 在不斷地嘗試一個失敗了的操作,就是清理 tobedeletedb 這個 Namespace 裏“收納”的資源。

4.png

怎麼樣刪除“收納盒”裏的資源?

這裏我們需要理解一點,就是 Namespace 作爲資源的“收納盒”,其實是邏輯意義上的概念。它並不像現實中的收納工具,可以把小的物件收納其中。Namespace 的“收納”實際上是一種映射關係。

5.png

這一點之所以重要,是因爲它直接決定了,刪除 Namespace 內部資源的方法。如果是物理意義上的“收納”,那我們只需要刪除“收納盒”,裏邊的資源就一併被刪除了。而對於邏輯意義上的關係,我們則需要羅列所有資源,並刪除那些指向需要刪除的 Namespace 的資源。

API、Group、Version

怎麼樣羅列集羣中的所有資源呢?這個問題需要從集羣 API 的組織方式說起。K8s 集羣的 API 不是鐵板一塊的,它是用分組和版本來組織的。這樣做的好處顯而易見,就是不同分組的 API 可以獨立迭代,互不影響。常見的分組如 apps,它有 v1、v1beta1 和 v1beta2 三個版本。完整的分組/版本列表,可以使用 kubectl api-versions 命令看到。

6.png

我們創建的每一個資源,都必然屬於某一個 API 分組/版本。以下邊 Ingress 爲例,我們指定 Ingress 資源的分組/版本爲 networking.k8s.io/v1beta1。

kind: Ingress
metadata:
  name: test-ingress
spec:
  rules:
  - http:
      paths:
      - path: /testpath
        backend:
          serviceName: test
          servicePort: 80

用一個簡單的示意圖來總結 API 分組和版本。

7.png

實際上,集羣有很多 API 分組/版本,每個 API 分組/版本支持特定的資源類型。我們通過 yaml 編排資源時,需要指定資源類型 kind,以及 API 分組/版本 apiVersion。而要列出資源,我們需要獲取 API 分組/版本的列表。

Controller 爲什麼不能刪除 Namespace 裏的資源

理解了 API 分組/版本的概念之後,再回頭看 Kube Controller Manager 的日誌,就會豁然開朗。顯然 Namespace 的 Controller 在嘗試獲取 API 分組/版本列表,當遇到 metrics.k8s.io/v1beta1 的時候,查詢失敗了。並且查詢失敗的原因是 “the server is currently unable to handle the request”。

再次回到集羣入口

在上一節中,我們發現 Kube Controller Manager 在獲取 metrics.k8s.io/v1beta1 這個 API 分組/版本的時候失敗了。而這個查詢請求,顯然是發給 API Server 的。所以我們回到 API Server 日誌,分析 metrics.k8s.io/v1beta1 相關的記錄。在相同的時間點,我們看到 API Server 也報了同樣的錯誤 “the server is currently unable to handle the request”。

8.png

顯然這裏有一個矛盾,就是 API Server 明顯在正常工作,爲什麼在獲取 metrics.k8s.io/v1beta1 這個 API 分組版本的時候,會返回 Server 不可用呢?爲了回答這個問題,我們需要理解一下 API Server 的“外掛”機制。

9.png

集羣 API Server 有擴展自己的機制,開發者可以利用這個機制,來實現 API Server 的“外掛”。這個“外掛”的主要功能,就是實現新的 API 分組/版本。API Server 作爲代理,會把相應的 API 調用,轉發給自己的“外掛”。

以 Metrics Server 爲例,它實現了 metrics.k8s.io/v1beta1 這個 API 分組/版本。所有針對這個分組/版本的調用,都會被轉發到 Metrics Server。如下圖,Metrics Server 的實現,主要用到一個服務和一個 pod。

10.png

而上圖中最後的 apiservice,則是把“外掛”和 API Server 聯繫起來的機制。下圖可以看到這個 apiservice 詳細定義。它包括 API 分組/版本,以及實現了 Metrics Server 的服務名。有了這些信息,API Server 就能把針對 metrics.k8s.io/v1beta1 的調用,轉發給 Metrics Server。

11.png

節點與Pod之間的通信

經過簡單的測試,我們發現,這個問題實際上是 API server 和 metrics server pod 之間的通信問題。在阿里雲 K8s 集羣環境裏,API Server 使用的是主機網絡,即 ECS 的網絡,而 Metrics Server 使用的是 Pod 網絡。這兩者之間的通信,依賴於 VPC 路由表的轉發。

12.png

以上圖爲例,如果 API Server 運行在 Node A 上,那它的 IP 地址就是 192.168.0.193。假設 Metrics Server 的 IP 是 172.16.1.12,那麼從 API Server 到 Metrics Server 的網絡連接,必須要通過 VPC 路由表第二條路由規則的轉發。

檢查集羣 VPC 路由表,發現指向 Metrics Server 所在節點的路由表項缺失,所以 API server 和 Metrics Server 之間的通信出了問題。

Route Controller 爲什麼不工作?

爲了維持集羣 VPC 路由表項的正確性,阿里雲在 Cloud Controller Manager 內部實現了 Route Controller。這個 Controller 在時刻監聽着集羣節點狀態,以及 VPC 路由表狀態。當發現路由表項缺失的時候,它會自動把缺失的路由表項填寫回去。

現在的情況,顯然和預期不一致,Route Controller 顯然沒有正常工作。這個可以通過查看 Cloud Controller Manager 日誌來確認。在日誌中,我們發現,Route Controller 在使用集羣 VPC id 去查找 VPC 實例的時候,沒有辦法獲取到這個實例的信息。

13.png

但是集羣還在,ECS 還在,所以 VPC 不可能不在了。這一點我們可以通過 VPC id 在 VPC 控制檯確認。那下邊的問題,就是爲什麼 Cloud Controller Manager 沒有辦法獲取到這個 VPC 的信息呢?

集羣節點訪問雲資源

Cloud Controller Manager 獲取 VPC 信息,是通過阿里雲開放 API 來實現的。這基本上等於從雲上一臺 ECS 內部,去獲取一個 VPC 實例的信息,而這需要 ECS 有足夠的權限。目前的常規做法是,給 ECS 服務器授予 RAM 角色,同時給對應的 RAM 角色綁定相應的角色授權。

14.png

如果集羣組件,以其所在節點的身份,不能獲取雲資源的信息,那基本上有兩種可能性。一是 ECS 沒有綁定正確的 RAM 角色;二是 RAM 角色綁定的 RAM 角色授權沒有定義正確的授權規則。檢查節點的 RAM 角色,以及 RAM 角色所管理的授權,我們發現,針對 vpc 的授權策略被改掉了。

15.png

當我們把 Effect 修改成 Allow 之後,沒多久,所有的 Terminating 狀態的 namespace 全部都消失了。

16.png

問題大圖

總體來說,這個問題與 K8s 集羣的 6 個組件有關係,分別是 API Server 及其擴展 Metrics Server,Namespace Controller 和 Route Controller,以及 VPC 路由表和 RAM 角色授權。

17.png

通過分析前三個組件的行爲,我們定位到,集羣網絡問題導致了 API Server 無法連接到 Metrics Server;通過排查後三個組件,我們發現導致問題的根本原因是 VPC 路由表被刪除且 RAM 角色授權策略被改動。

後記

K8s 集羣 Namespace 刪除不掉的問題,是線上比較常見的一個問題。這個問題看起來無關痛癢,但實際上不僅複雜,而且意味着集羣重要功能的缺失。這篇文章全面分析了一個這樣的問題,其中的排查方法和原理,希望對大家排查類似問題有一定的幫助。

阿里巴巴雲原生關注微服務、Serverless、容器、Service Mesh 等技術領域、聚焦雲原生流行技術趨勢、雲原生大規模的落地實踐,做最懂雲原生開發者的技術圈。”

發佈了247 篇原創文章 · 獲贊 39 · 訪問量 4萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章