一文詳解用eBPF觀測HTTP

簡介: 隨着eBPF推出,由於具有高性能、高擴展、安全性等優勢,目前已經在網絡、安全、可觀察等領域廣泛應用,同時也誕生了許多優秀的開源項目,如Cilium、Pixie等,而iLogtail 作爲阿里內外千萬實例可觀測數據的採集器,eBPF 網絡可觀測特性也預計會在未來8月發佈。下文主要基於eBPF觀測HTTP 1、HTTP 1.1以及HTTP2的角度介紹eBPF的針對可觀測場景的應用,同時回顧HTTP 協議自身的發展。

image.png

作者 | 少旋
來源 | 阿里開發者公衆號

前言

隨着eBPF推出,由於具有高性能、高擴展、安全性等優勢,目前已經在網絡、安全、可觀察等領域廣泛應用,同時也誕生了許多優秀的開源項目,如Cilium、Pixie等,而iLogtail 作爲阿里內外千萬實例可觀測數據的採集器,eBPF 網絡可觀測特性也預計會在未來8月發佈。下文主要基於eBPF觀測HTTP 1、HTTP 1.1以及HTTP2的角度介紹eBPF的針對可觀測場景的應用,同時回顧HTTP 協議自身的發展。

eBPF基本介紹

eBPF 是近幾年 Linux Networkworking 方面比較火的技術之一,目前在安全、網絡以及可觀察性方面應用廣泛,比如CNCF 項目Cilium 完全是基於eBPF 技術實現,解決了傳統Kube-proxy在大集羣規模下iptables 性能急劇下降的問題。從基本功能上來說eBPF 提供了一種兼具性能與靈活性來自定義交互內核態與用戶態的新方式,具體表現爲eBPF 提供了友好的api,使得可以通過依賴libbpf、bcc等SDK,將自定義業務邏輯安全的嵌入內核態執行,同時通過BPF Map 機制(不需要多次拷貝)直接在內核態與用戶態傳遞所需數據。

image.png

當聚焦在可觀測性方面,我們可以將eBPF 類比爲Javaagent進行介紹。Javaagent的基本功能是程序啓動時對於已存在的字節碼進行代理字節碼織入,從而在無需業務修改代碼的情況下,自動爲用戶程序加入hook點,比如在某函數進入和返回時添加hook點可以計算此函數的耗時。而eBPF 類似,提供了一系列內核態執行的切入點函數,無需修改代碼,即可觀測應用的內部狀態,以下爲常用於可觀測性的切入點類型:

  • kprobe:動態附加到內核調用點函數,比如在內核exec系統調用前檢查參數,可以BPF 程序設置 SEC("kprobe/sys_exec")頭部進行切入。
  • tracepoints:內核已經提供好的一些切入點,可以理解爲靜態的kprobe,比如syscall 的connect函數。
  • uprobe:與krobe對應,動態附加到用戶態調用函數的切入點稱爲uprobe,相比如kprobe 內核函數的穩定性,uprobe 的函數由開發者定義,當開發者修改函數簽名時,uprobe BPF 程序同樣需要修改函數切入點簽名。
  • perf_events:將BPF 代碼附加到Perf事件上,可以依據此進行性能分析。

image.png

TCP與eBPF

由於本文觀測協議HTTP 1、HTTP1.1以及HTTP2 都是基於TCP 模型,所以先回顧一下 TCP 建立連接的過程。首先Client 端通過3次握手建立通信,從TCP協議上來說,連接代表着狀態信息,比如包含seq、ack、窗口/buffer等,而tcp握手就是協商出來這些初始值;而從操作系統的角度來說,建立連接後,TCP 創建了INET域的 socket,同時也佔用了FD 資源。對於四次揮手,從TCP協議上來說,可以理解爲釋放終止信號,釋放所維持的狀態;而從操作系統的角度來說,四次揮手後也意味着Socket FD 資源的回收。

而對於應用層的角度來說,還有一個常用的概念,這就是長連接,但長連接對於TCP傳輸層來說,只是使用方式的區別:

  • 應用層短連接:三次握手+單次傳輸數據+四次揮手,代表協議HTTP 1
  • 應用層長連接:三次握手+多次傳輸數據+四次揮手,代表協議 HTTP 1.1、HTTP2

image.png

image.png

參考下圖TCP 建立連接過程內核函數的調用,對於eBPF 程序可以很容易的定義好tracepoints/kprobe 切入點。例如建立連接過程可以切入 accept 以及connect 函數,釋放鏈接過程可以切入close過程,而傳輸數據可以切入read 或write函數。

image.png

基於TCP 大多數切入點已經被靜態化爲tracepoints,因此BPF 程序定義如下切入點來覆蓋上述提到的TCP 核心函數(sys_enter 代表進入時切入,sys_exit 代表返回時切入)。

SEC("tracepoint/syscalls/sys_enter_connect") SEC("tracepoint/syscalls/sys_exit_connect") SEC("tracepoint/syscalls/sys_enter_accept") SEC("tracepoint/syscalls/sys_exit_accept") SEC("tracepoint/syscalls/sys_enter_accept4") SEC("tracepoint/syscalls/sys_exit_accept4") SEC("tracepoint/syscalls/sys_enter_close") SEC("tracepoint/syscalls/sys_exit_close") SEC("tracepoint/syscalls/sys_enter_write") SEC("tracepoint/syscalls/sys_exit_write") SEC("tracepoint/syscalls/sys_enter_read") SEC("tracepoint/syscalls/sys_exit_read") SEC("tracepoint/syscalls/sys_enter_sendmsg") SEC("tracepoint/syscalls/sys_exit_sendmsg") SEC("tracepoint/syscalls/sys_enter_recvmsg") SEC("tracepoint/syscalls/sys_exit_recvmsg") ....

結合上述概念,我們以iLogtail的eBPF 工作模型爲例,介紹一個可觀測領域的eBPF 程序是如何真正工作的。更多詳細內容可以參考此分享: 基於eBPF的應用可觀測技術實踐。如下圖所示,iLogtaileBPF 程序的工作空間分爲Kernel Space與User Space。

Kernel Space 主要負責數據的抓取與預處理:

  • 抓取:Hook模塊會依據KProbe定義攔截網絡數據,虛線中爲具體的KProbe 攔截的內核函數(使用上述描述的SEC進行定義),如connect、accept 以及write 等。
  • 預處理:預處理模塊會根據用戶態配置進行數據的攔截丟棄以及數據協議的推斷,只有符合需求的數據纔會傳遞給SendToUserSpace模塊,而其他數據將會被丟棄。其後SendToUserSpace 模塊通過eBPF Map 將過濾後的數據由內核態數據傳輸到用戶態。

User Space 的模塊主要負責數據分析、聚合以及管理:

  • 分析:Process 模塊會不斷處理eBPF Map中存儲的網絡數據,首先由於Kernel 已經推斷協議類型,Process 模塊將根據此類型進行細粒度的協議分析,如分析MySQL 協議的SQL、分析HTTP 協議的狀態碼等。其次由於 Kernel 所傳遞的連接元數據信息只有Pid 與
  • FD 等進程粒度元信息,而對於Kubernetes 可觀測場景來說,Pod、Container 等資源定義更有意義,所以Correlate Meta 模塊會爲Process 處理後的數據綁定容器相關的元數據信息。
  • 聚合:當綁定元數據信息後,Aggreate 模塊會對數據進行聚合操作以避免重複數據傳輸,比如聚合週期內某SQL 調用1000次,Aggreate 模塊會將最終數據抽象爲 XSQL:1000 的形式進行上傳。
  • 管理:整個eBPF 程序交互着大量着進程與連接數據,因此eBPF 程序中對象的生命週期需要與機器實際狀態相符,當進程或鏈接釋放,相應的對象也需要釋放,這也正對應着Connection Management 與Garbage Collection 的職責。

image.png

eBPF 數據解析

HTTP 1 、HTTP1.1以及HTTP2 數據協議都是基於TCP的,參考上文,一定有以下函數調用:

  1. connect 函數:函數簽名爲int connect(int sockfd, const struct sockaddr *addr, socklen_t addrlen), 從函數簽名入參可以獲取使用的socket 的fd,以及對端地址等信息。
  2. accept 函數:函數簽名爲int accept(int sockfd, struct sockaddr addr, socklen_t addrlen), 從函數簽名入參同樣可以獲取使用的socket 的fd,以及對端地址等信息。
  3. sendmsg函數:函數簽名爲 ssize_t sendmsg(int sockfd, const struct msghdr *msg, int flags),從函數簽名可以看出,基於此函數可以拿到發送的數據包,以及使用的socket 的fd信息,但無法直接基於入參知曉對端地址。
  4. recvmsg函數:函數簽名爲 ssize_t recvmsg(int sockfd, struct msghdr *msg, int flags),從函數簽名可以看出,基於此函數我們拿到接收的數據包,以及使用的socket 的fd信息,但無法直接基於入參知曉對端地址。
  5. close 函數:函數簽名爲 int close(int fd),從函數簽名可以看出,基於此函數可以拿到即將關閉的fd信息。

HTTP 1 / HTTP 1.1 短連接模式

HTTP 於1996年推出,HTTP 1 在用戶層是短連接模型,也就意味着每一次發送數據,都會伴隨着connect、accept以及close 函數的調用,這就以爲這eBPF程序可以很容易的尋找到connect 的起始點,將傳輸數據與地址進行綁定,進而構建服務的上下游調用關係。

image.png

可以看出HTTP 1 或者HTTP1.1 短連接模式是對於eBPF 是非常友好的協議,因爲可以輕鬆的關聯地址信息與數據信息,但回到HTTP 1/HTTP1.1 短連接模式 本身來說,‘友好的代價’不僅意味着帶來每次TCP 連接與釋放連接的消耗,如果兩次傳輸數據的HTTP Header 頭相同,Header 頭也存在冗餘傳輸問題,比如下列數據的頭Host、Accept 等字段。

image.png

HTTP 1.1 長連接

HTTP 1.1 於HTTP 1.0 發佈的一年後發佈(1997年),提供了緩存處理、帶寬優化、錯誤通知管理、host頭處理以及長連接等特性。而長連接的引入也部分解決了上述HTTP1中每次發送數據都需要經過三次握手以及四次揮手的過程,提升了數據的發送效率。但對於使用eBPF 觀察HTTP數據來說,也帶來了新的問題,上文提到建立地址與數據的綁定依賴於在connect 時進行probe,通過connect 參數拿到數據地址,從而與後續的數據包綁定。但回到長連接情況,假如connect 於1小時之前建立,而此時才啓動eBPF程序,所以我們只能探測到數據包函數的調用,如send或recv函數。此時應該如何建立地址與數據的關係呢?

image.png

首先可以回到探測函數的定義,可以發現此時雖然沒有明確的地址信息,但是可以知道此TCP 報文使用的Socket 與FD 信息。因此可以使用 netlink 獲取此Socket 的元信息,進行對長連接補充對端地址,進而在HTTP 1.1 長連接協議構建服務拓撲與分析數據明細。

ssize_t sendmsg(int sockfd, const struct msghdr msg, int flags) ssize_t recvmsg(int sockfd, struct msghdr msg, int flags)

image.png

HTTP 2

在HTTP 1.1 發佈後,由於冗餘傳輸以及傳輸模型串行等問題,RPC 框架基本上都是進行了私有化協議定義,如Dubbo 等。而在2015年,HTTP2 的發佈打破了以往對HTTP 協議的很多詬病,除解決在上述我們提到的Header 頭冗餘傳輸問題,還解決TCP連接數限制、傳輸效率、隊頭擁塞等問題,而 gRPC正式基於HTTP2 構建了高性能RPC 框架,也讓HTTP 1 時代層出不窮的通信協議,也逐漸走向了歸一時代,比如Dubbo3 全面兼容gRPC/HTTP2 協議。

特性

以下內容首先介紹一些HTTP2 與eBPF 可觀察性相關的關鍵特性。

多路複用

HTTP 1 是一種同步、獨佔的協議,客戶端發送消息,等待服務端響應後,才進行新的信息發送,這種模式浪費了TCP 全雙工模式的特性。因此HTTP2 允許在單個連接上執行多個請求,每個請求相應使用不同的流,通過二進制分幀層,爲每個幀分配一個專屬的stream 標識符,而當接收方收到信息時,接收方可以將幀重組爲完整消息,提升了數據的吞吐。此外可以看到由於Stream 的引入,Header 與Data 也進行了分離設計,每次傳輸數據Heaer 幀發送後爲此後Data幀的統一頭部,進一步提示了傳輸效率。

image.png

首部壓縮

HTTP 首部用於發送與請求和響應相關的額外信息,HTTP2引入首部壓縮概念,使用與正文壓縮不同的技術,支持跨請求壓縮首部,可以避免正文壓縮使用算法的安全問題。HTTP2採用了基於查詢表和Huffman編碼的壓縮方式,使用由預先定義的靜態表和會話過程中創建的動態表,沒有引用索引表的首部可以使用ASCII編碼或者Huffman編碼傳輸。

image.png

但隨着性能的提升,也意味着越來越多的數據避免傳輸,這也同時意味着對eBPF 程序可感知的數據會更少,因此HTTP2協議的可觀察性也帶來了新的問題,以下我們使用gRPC不同模式以及Wireshark 分析HTTP2協議對eBPF 程序可觀測性的挑戰。

GRPC

Simple RPC

Simple RPC 是GRPC 最簡單的通信模式,請求和響應都是一條二進制消息,如果保持連接可以類比爲HTTP 1.1 的長連接模式,每次發送收到響應,之後再繼續發送數據。

image.png

但與HTTP 1 不同的是首部壓縮的引入,如果維持長連接狀態,後續發的數據包Header 信息將只存儲索引值,而不是原始值,我們可以看到下圖爲Wirshark 抓取的數據包,首次發送是包含完整Header幀數據,而後續Heders 幀長度降低爲15,減少了大量重複數據的傳輸。

image.png
image.png

Stream 模式

Stream 模式是gRPC 常用的模式,包含Server-side streaming RPC,Client-side streaming RPC,Bidirectional streaming RPC,從傳輸編碼上來說與Simple RPC 模式沒有不同,都分爲Header 幀、Data幀等。但不同的在於Data 幀的數量,Simple RPC 一次發送或響應只包含一個Data幀 模式,而Stream 模式可以包含多個。

1、Server-side streaming RPC:與Simple RPC 模式不同,在Server-side streaming RPC 中,當從客戶端接收到請求時,服務器會發回一系列響應。此響應消息序列在客戶端發起的同一 HTTP 流中發送。如下圖所示,服務器收到來自客戶端的消息,並以幀消息的形式發送多個響應消息。最後,服務器通過發送帶有呼叫狀態詳細信息的尾隨元數據來結束流。

image.png

2、Client-side streaming RPC: 在客戶端流式 RPC 模式中,客戶端向服務器發送多條消息,而服務器只返回一條消息。

image.png

3、Bidirectional streaming RPC:客戶端和服務器都向對方發送消息流。客戶端通過發送標頭幀來設置 HTTP 流。建立連接後,客戶端和服務器都可以同時發送消息,而無需等待對方完成。

image.png

tracepoint/kprobe的挑戰

從上述wirshark 報文以及協議模式可以看出,歷史針對HTTP1時代使用的tracepoint/kprobe 會存在以下挑戰:

  • Stream 模式: 比如在Server-side stream 下,假如tracepoint/kprobe 探測的點爲Data幀,因Data 幀因爲無法關聯Header 幀,都將變成無效Data 幀,但對於gRPC 使用場景來說還好,一般RPC 發送數據和接受數據都很快,所以很快就會有新的Header 幀收到,但這時會遇到更大的挑戰,長連接下的首部壓縮。

image.png

  • 長連接+首部壓縮:當HTTP2 保持長連接,connect 後的第一個Stream 傳輸的Header 會爲完整數據,而後續Header幀如與前置Header幀存在相同Header 字段,則數據傳輸的爲地址信息,而真正的數據信息會交給Server 或Client 端的應用層SDK 進行維護,而如下圖eBPF tracepoints/kprobe 在stream 1 的尾部幀才進行probe,對於後續的Header2 幀大概率不會存在完整的Header 元數據,如下圖Wireshark 截圖,包含了很多Header 信息的Header 長度僅僅爲15,可以看出eBPF tracepoints/kprobe 對於這種情況很難處理。

image.png

image.png

從上文可知,HTTP2 可以歸屬於有狀態的協議,而Tracepoint/Kprobe 對有狀態的協議數據很難處理完善,某些場景下只能做到退化處理,以下爲使用Tracepoint/Kprobe 處理的基本流程。

image.png

Uprobe 可行嗎?

從上述tracepoint/kprobe 的挑戰可以看到,HTTP 2 是一種很難被觀測的協議,在HTTP2 的協議規範上,爲減少Header 的傳輸,client 端以及server 端都需要維護Header 的數據,下圖是grpc 實現的HTTP2 客戶端維護Header 元信息的截圖,所以在應用層可以做到拿到完整Header數據,也就繞過來首部壓縮問題,而針對應用層協議,eBPF 提供的探測手段是Uprobe(用戶態),而Pixie 項目也正是基於Uprobe 實踐了gRPC HTTP2 流量的探測,詳細內容可以參考此文章[1]。

image.png

下圖展示了使用Uprobe 觀測Go gRPC 流量的基本流程,如其中writeHeader 的函數定義爲 func (l *loopyWriter) writeHeader(streamID uint32, endStream bool, hf []hpack.HeaderField, onWrite func()), 可以看到明確的Header 文本。

image.png

Kprobe 與Uprobe 對比

從上文可以看出Uprobe 實現簡單,且不存在數據退化的問題,但Uprobe 真的完美嗎?

  • 兼容性:上述方案僅僅是基於Golang gRPC 的 特定方法進行探測,也就意味着上述僅能覆蓋Golang gRPC 流量的觀察,對於Golang 其他HTTP2 庫無法支持。
  • 多語言性:Uprobe 只能基於方法簽名進行探測,更適用於C/GO 這種純編譯型語言,而對於Java 這種JVM 語言,因爲運行時動態生成符號表,雖然可以依靠一些javaagent 將java 程序用於Uprobe,但是相對於純編譯型語言,用戶使用成本或改造成本還是會更高一些。
  • 穩定性:Uprobe 相對於tracepoint/kprobe 來說是不穩定的,假如探測的函數函數簽名有改變,這就意味着Uprobe 程序將無法工作,因爲函數註冊表的改變將使得Uprobe 無法找到切入點。

綜合下來2種方案對比如下,可以看到2種方案對於HTTP2(有狀態)的觀測都存在部分取捨:

image.png

總結

上述我們回顧了HTTP1到HTTP2 時代的協議變遷,也看到HTTP2 提升傳輸效率做的種種努力,而正是HTTP2的巨大效率提升,也讓gRPC選擇了直接基於HTTP2 協議構建,而也是這種選擇,讓gRPC 成爲了RPC 百家爭鳴後是隱形事實協議。但我們也看到了協議的進步意味着更少的數據交互,也讓數據可觀察變得更加困難,比如HTTP2 使用eBPF目前尚無完美的解決方法,或使用Kprobe 觀察,選擇的多語言性、流量拓撲分析、但容許了失去流量細節的風險;或使用Uprobe 觀察,選擇了數據的細節,拓撲,但容許了多語言的兼容性問題。

iLogtail致力於打造覆蓋Trace、Metrics 以及Logging 的可觀測性的統一Agent,而eBPF 作爲目前可觀測領域的熱門採集技術,提供了無侵入、安全、高效觀測流量的能力,預計8月份,我們將在iLogtail Cpp正式開源後發佈此部分功能,歡迎大家關注和互相交流。

參考:

TCP 的幾個狀態:https://www.s0nnet.com/archives/tcp-status

HTTP2.0的總結:https://liyaoli.com/2015-04-18/HTTP-2.0.html

Transmission Control Protocol:https://en.wikipedia.org/wiki/Transmission_Control_Protocol

Computer Networks:https://www.cse.iitk.ac.in/users/dheeraj/cs425/lec18.html

Hypertext_Transfer_Protocol:https://en.wikipedia.org/wiki/Hypertext_Transfer_Protocol

gRPC: A Deep Dive into the Communication Pattern:https://thenewstack.io/grpc-a-deep-dive-into-the-communication-pattern/

ebpf2-http2-tracing:https://blog.px.dev/ebpf-http2-tracing/

深入理解Linux socket:https://www.modb.pro/db/153725

基於eBPF的應用可觀測技術實踐:https://www.bilibili.com/video/BV1Gg411d7tq

 

重磅來襲!2022上半年阿里雲社區最熱電子書榜單!

 

千萬閱讀量、百萬下載量、上百本電子書,近200位阿里專家參與編寫。多元化選擇、全領域覆蓋,匯聚阿里巴巴技術實踐精華,讀、學、練一鍵三連。開發者藏經閣,開發者的工作伴侶~

點擊這裏,查看詳情。

原文鏈接:https://click.aliyun.com/m/1000352471/


本文爲阿里雲原創內容,未經允許不得轉載。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章