面試熱點|淺談TCP/IP傳輸層TCP BBR算法

0x00.前言

這是TCP/IP協議棧系列的第三篇文章,之前的一篇面試熱點|理解TCP/IP傳輸層擁塞控制算法講述了傳統的擁塞控制算法基本原理,今天一起來學習下最新Linux內核中增加的擁塞控制算法:TCP BBR算法。

鑑於TCP擁塞控制算法背後有一套複雜的數學理論和控制策略,因此本文也只能是淺談,通過本文你將瞭解到以下內容(溫馨提示:文章較長需要一些耐心,也可以先收藏再閱讀):

  • 回顧傳統擁塞控制算法

  • TCP BBR算法的概況

  • BBR算法的原理簡介

0x01. 擁塞控制簡史

大約在1988年之前TCP/IP是沒有擁塞控制的,但是隨着網絡接入規模的發展之前僅有的端到端窗口控制已經無法滿足要求,在1986年引發大規模網絡癱瘓,此時就要提到一個重量級人物:Van Jacobson範·雅各布森

這位力挽狂瀾的人物入選了計算機名人堂Internet Hall of Fame,Van Jacobson大神提出並設計實施了TCP/IP擁塞控制,解決了當時最大的問題,來簡單看下Van Jacobson的維基百科簡介(筆者做了部分刪減):

範·雅各布森Van Jacobson是目前作爲互聯網技術基礎的TCP/IP協議棧的主要起草者,他以其在網絡性能的提升和優化的開創性成就而聞名

2006年8月,他加入了帕洛阿爾託研究中心擔任研究員,並在位於相鄰的施樂建築羣的Packet Design公司擔任首席科學家。在此之前,他曾是思科系統公司首席科學家,並在位於勞倫斯伯克利國家實驗室的網絡研究小組任領導者。

範·雅各布森因爲在提高IP網絡性能提升和優化所作的工作而爲人們所知,1988到1989年間,他重新設計了TCP/IP的流控制算法(Jacobson算法),他因設計了RFC 1144中的TCP/IP頭壓縮協議即範·雅各布森TCP/IP頭壓縮協議而廣爲人知。此外他也曾與他人合作設計了一些被廣泛使用的網絡診斷工具,如traceroute,pathchar以及tcpdump

範·雅各布森於2012年4月入選第一批計算機名人堂,計算機名人堂簡介:https://www.internethalloffame.org/inductees/van-jacobson

如圖爲Van Jacobson計算機名人堂的簡介:

筆者找了Van Jacobson和Michael J. Karels在1988年11月發佈的關於擁塞避免和控制的論文,總計25頁,感興趣的讀者可以查閱:

https://ee.lbl.gov/papers/congavoid.pdf

我們常用的tracetoute和tcpdump也是van-jacobson大神的傑作,作爲互聯網時代的受益者不由得對這些互聯網發展早期做出巨大貢獻的開拓者、創新者、變革者心生讚歎和敬意。

0x02.傳統擁塞控制算法回顧

2.1  算法目的

看到一篇文章說到TCP 傳輸層擁塞控制算法並不是簡單的計算機網絡的概念,也屬於控制論範疇,感覺這個觀點很道理。

TCP擁塞控制算法的目的可以簡單概括爲:公平競爭、充分利用網絡帶寬、降低網絡延時、優化用戶體驗,然而就目前而言要實現這些目標就難免有權衡和取捨。

但是現在的網絡通信基礎設施水平一直在飛速提高,相信在未來的某個時間點這些目標都可以達到,小孩子才選擇,我們大人全都要

2.2  算法分類

在理解擁塞控制算法之前我們需要明確一個核心的思想:聞道有先後 術業有專攻,筆者覺得這是一個非常重要的共識問題,把A踩在泥土裏,把B吹捧到天上去,都不是很好的做法。

實際的網絡環境十分複雜並且變化很快,並沒有哪個擁塞控制算法可以全部搞定,每一種算法都有自己的特定和適用領域,每種算法都是對幾個關鍵點的權衡,在無法兼得的條件下有的算法選擇帶寬利用率,有的算法選擇通信延時等等。

在明確這個共識問題之後,我們對待各個擁塞控制算法的態度要平和一些,不要偏激地認爲誰就是最好,幾十年前的網絡狀況和現在是截然不同的,我們永遠都是站在巨人的肩膀之上的,這也是科學和文明進步的推動力

傳統擁塞控制算法並不是一蹴而就的,複雜的網絡環境和用戶的高要求推動着擁塞控制算法的優化和迭代,我們看下基於丟包策略的傳統擁塞控制算法的幾個迭代版本,如圖所示:

與此同時還有一類算法是基於RTT延時策略來進行控制的,但是這類算法在發包速率上可能不夠激進爭性能不如其他算法,因此在共享網絡帶寬時有失公平性,但是算法速率曲線卻是很平滑,我們暫且把這類算法當做君子吧!

其中比較有名的Vegas算法是大約在1995年由亞利桑那大學的研究人員拉里·彼得森和勞倫斯·布拉科夫提出,這個新的TCP擁塞算法以內華達州最大的城市拉斯維加斯命名,後成爲TCP Vegas算法。

關於基於RTT的TCP Vegas算法的詳細介紹可以查閱文檔

http://www.cs.cmu.edu/~srini/15-744/F02/readings/BP95.pdf

文檔對Vegas算法和New Reno做了一些對比,我們從直觀圖形上可以看到Vegas算法更加平滑,相反New Reno則表現除了較大的波動呈鋸齒狀,如圖所示:


實際上還有更細粒度的分類,由於不是今天的重點,就不再深入展開了,當前使用的擁塞控制算法還是基於丟包Loss-Based作爲主流。

2.3  算法原則

我們知道在網絡鏈路中連接的數量是動態變化且數量巨大的,每一條連接都面臨着一個黑盒子式的網絡環境,這並不像我們平時出行時看看地圖就知道哪裏堵了,爲了維護一個好的網絡環境,每一條連接都需要遵守一些約定。

如果連接端都無所顧忌地發生數據包,那麼網絡鏈路很快就到了瓶頸了,數據通信完全無法保障,所以要到達一個穩定高效的網絡環境還是需要費很大心思的,這其中有兩個重要的概念:公平性和收斂性

說來慚愧筆者在網絡上找了很多資料去理解TCP擁塞控制的公平性和收斂性,但是仍然沒有獲得一個很好的權威解釋,所以只能結合一些資料和自身的理解去闡述所謂的公平性和收斂性。

筆者認爲公平性是相對於網絡鏈路中的所有連接而言的,這些共享鏈路的連接啓動和結束的時間不同,在實際的交互過程中每條連接佔有帶寬的機會是均等的,並且由於帶寬限制連接雙方通信的數據量是動態調整並且近似收斂於某個值,也就是呈現一個鋸齒狀或者更加平滑的波動曲線,對於基於丟包的擁塞控制算法而言AIMD線性增乘性減策略起了關鍵控制作用。

接下來我們來重點看下AIMD特性,先來貼一張經典的圖,直觀看AIMD的過程:

看看維基百科對於AIMD的定義:

The additive-increase/multiplicative-decrease(AIMD) algorithm is a feedback control algorithm best known for its use in TCP congestion control.

AIMD combines linear growth of the congestion window with an exponential reduction when congestion is detected.

Multiple flows using AIMD congestion control will eventually converge to use equal amounts of a shared link.

The related schemes of multiplicative-increase/multiplicative-decrease (MIMD) and additive-increase/additive-decrease (AIAD) do not reach stability.

簡單翻譯一下:線性增加乘性減少算法是一個反饋控制算法,因其在TCP擁塞控制中的使用而廣爲人知,AIMD將線性增加擁塞窗口和擁塞時乘性減少窗口相結合,基於AIMD的多個連接理想狀態下會達到最終收斂,共享相同數量的網絡帶寬,與其相關的乘性增乘性減MIMD策略增性加增性減少AIAD無法保證穩定性

AIMD相比MIMD和AIAD在連接進入擁塞避免階段使用試探線性加策略而不是乘性加策略更加安全,在探測丟包時則大幅度乘性減少到1/2這樣對於緩解擁塞會有比較好的效果更加快速,相反如果探測到丟包時採用線性減少AD可能擁塞持續的時間會更長,總體來說AIMD算是一個比較簡單實用的工程版本的反饋控制,也具備可工程收斂性,因而被廣泛實用。

2.4  弱網絡環境下的AIMD

時間拉回20多年前,在互聯網早期幾乎所有的設備都是通過有線網絡進行連接通信的,這也是擁塞控制在設計之後一直都起到不錯作用的重要因素,有線連接的網絡穩定性比較好,因此把丟包作爲網絡擁堵的一個特徵也很正常。

再拉回到現在,從2010年之後移動互聯網蓬勃發展,移動終端的持有量已經可以稱爲海量,無線網絡的引入讓網絡環境變得更加複雜,因此不穩定丟包變得更加頻繁,但是這時的丟包就不一定是網絡擁堵造成的了,因爲整個數據包經過多重路由、交換機、基站等基礎通信設備每個環節都可能發生異常。

在弱網環境下,尤其是移動互聯網中之前的基於AIMD的擁塞控制策略可能會由於丟包的出現而大幅降低網絡吞吐量,從而對網絡帶寬的利用率也大大下降,這時我們採用更加激進的控制策略,或許可以獲得更好的效果和用戶體驗。

惡意丟包的情況下,基於AIMD的擁塞控制確實就相當於被限速了,因爲AIMD確實有些保守謹慎了,這個其實也很好理解的哈。

我們都知道在移動網絡環境下是由終端以無線形式和附近的基站交互數據,之後數據傳輸至核心網,最後落到具體的服務器所在的有線網絡,其中最後一公里的區域屬於高延時場景,有線網絡屬於低延時高帶寬場景。

在國外有相關實驗證明弱網環境下RTT的變化對於使用傳統擁塞控制算法下網絡吞吐量的影響,數據和曲線如圖所示:


實驗含義:RTT的增大影響了比如CUBIC這類擁塞控制算法的慢啓動等階段,我們知道慢啓動階段每經過1個RTT週期擁塞窗口cwnd將加倍,但是更大的RTT就意味着發送方以很低的速率發送數據,更多的時間是空閒的,發包的加速度極大將低了,所以整個吞吐量就下降很明顯。

看下實驗者的原文表述:

The delay before acknowledgment packets are received (= latency) will have an impact on how fast the TCP congestion window increases (hence the throughput). 

When latency is high, it means that the sender spends more time idle (not sending any new packets), which reduces how fast throughput grows.

0x03 TCP BBR算法簡介

BBR算法是個主動的閉環反饋系統,通俗來說就是根據帶寬和RTT延時來不斷動態探索尋找合適的發送速率和發送量。

看下維基百科對BBR算法的說明和資料:

相關文獻:https://queue.acm.org/detail.cfm?id=3022184

TCP BBR(Bottleneck Bandwidth and Round-trip propagation time)是由Google設計,並於2016年發佈的擁塞算法,以往大部分擁塞算法是基於丟包來作爲降低傳輸速率的信號,而BBR基於模型主動探測

該算法使用網絡最近出站數據分組當時的最大帶寬往返時間來創建網絡的顯式模型。數據包傳輸的每個累積或選擇性確認用於生成記錄在數據包傳輸過程和確認返回期間的時間內所傳送數據量的採樣率。

該算法認爲隨着網絡接口控制器逐漸進入千兆速度時,分組丟失不應該被認爲是識別擁塞的主要決定因素,所以基於模型的擁塞控制算法能有更高的吞吐量和更低的延遲,可以用BBR來替代其他流行的擁塞算法例如CUBIC。Google在YouTube上應用該算法,將全球平均的YouTube網絡吞吐量提高了4%,在一些國家超過了14%。BBR之後移植入Linux內核4.9版本,並且對於QUIC可用。

3.1 基於丟包反饋策略可能在的問題

基於丟包反饋屬於被動式機制,根源在於這些擁塞控制算法依據是否出現丟包事件來判斷網絡擁塞做減窗調整,這樣就可能會出現一些問題:

  • 丟包即擁塞
    現實中網絡環境很複雜會存在錯誤丟包,很多算法無法很好區分擁塞丟包和錯誤丟包,因此在存在一定錯誤丟包的前提下在某些網絡場景中並不能充分利用帶寬。

  • 緩衝區膨脹問題BufferBloat
    網絡連接中路由器、交換機、核心網設備等等爲了平滑網絡波動而存在緩衝區,這些緩存區就像輸液管的膨脹部分讓數據更加平穩,但是Loss-Based策略在最初就像網絡中發生數據類似於灌水,此時是將Buffer全部算在內的,一旦buffer滿了,就可能出現RTT增加丟包等問題,就相當於有的容量本不該算在其中,但是策略是基於包含Buffer進行預測的,特別地在深緩衝區網絡就會出現一些問題。

  • 網絡負載高但無丟包事件
    假設網絡中的負載已經很高了,只要沒有丟包事件出現,算法就不會主動減窗降低發送速率,這種情況下雖然充分利用了網絡帶寬,同時由於一直沒有丟包事件出現發送方仍然在加窗,表現出了較強的網絡帶寬侵略性,加重了網絡負載壓力。

  • 高負載丟包
    高負載無丟包情況下算法一直加窗,這樣可以預測丟包事件可能很快就出現了,一旦丟包出現窗口將呈現乘性減少,由高位發送速率迅速降低會造成整個網絡的瞬時抖動性,總體呈現較大的鋸齒狀波動。

  • 低負載高延時丟包
    在某些弱網環境下RTT會增加甚至出現非擁塞引起丟包,此時基於丟包反饋的擁塞算法的窗口會比較小,對帶寬的利用率很低,吞吐量下降很明顯,但是實際上網絡負載並不高,所以在弱網環境下效果並不是非常理想。

3.2 TCP BBR算法基本原理

前面我們提到了一些Loss-Based算法存在的問題,TCP BBR算法是一種主動式機制,簡單來說BBR算法不再基於丟包判斷並且也不再使用AIMD線性增乘性減策略來維護擁塞窗口,而是分別採樣估計極大帶寬和極小延時,並用二者乘積作爲發送窗口,並且BBR引入了Pacing Rate限制數據發送速率,配合cwnd使用來降低衝擊。

3.2.1 一些術語

  • BDP

    BDP是Bandwidth-Delay Product的縮寫,可以翻譯爲帶寬延時積,我們知道帶寬的單位是bps(bit per second),延時的單位是s,這樣BDP的量綱單位就是bit,從而我們知道BDP就是衡量一段時間內鏈路的數據量的指標。這個可以形象理解爲水管灌水問題,帶寬就是水管的水流速度立方米/s,延時就是灌水時間單位s,二者乘積我們就可以知道當前水管內存儲的水量了,這是BBR算法的一個關鍵指標,來看一張陶輝大神文章中的圖以及一些網絡場景中的BDP計算

  • 長肥網絡
    我們把具有長RTT往返時間和高帶寬的網絡成爲長肥網絡或者長肥管道,它的帶寬延時積BDP很大大,這種網絡理論上吞吐量很大也是研究的重點。

  • TCP Pacing機制
    可以簡單地理解TCP Pacing機制就是將擁塞控制中數據包的做平滑發送處理,避免數據的突發降低網絡抖動

3.2.2 帶寬和延時的測量

BBR算法的一些思想在之前的基於延時的擁塞控制算法中也有出現,其中必有有名的是TCP WestWood算法。

TCP Westwood改良自New Reno,不同於以往其他擁塞控制算法使用丟失來測量,其通過對確認包測量來確定一個合適的發送速度,並以此調整擁塞窗口和慢啓動閾值。其改良了慢啓動階段算法爲敏捷探測和設計了一種持續探測擁塞窗口的方法來控制進入敏捷探測,使鏈接儘可能地使用更多的帶寬。

TCP WestWood算法也是基於帶寬和延時乘積進行設計的,但是帶寬和延時兩個指標無法同時測量,因爲這兩個值是有些矛盾的極值,要測量最大帶寬就要發送最大的數據量但是此時的RTT可能會很大,如果要測量最小的RTT那麼久意味着數據量非常少最大帶寬就無法獲得。

TCP BBR算法採用交替採樣測量兩個指標,取一段時間內的帶寬極大值和延時極小值作爲估計值,具體的實現本文就不展開了。

3.2.3 發送速率和RTT曲線

前面提到了BBR算法核心是尋找BDP最優工作點,在相關論文中給出了一張組合的曲線圖,我們一起來看下:

1.曲線圖示說明:
這張圖是由兩個圖組合而成,目前是展示[數據發送速率vs網絡數據]和[RTTvs網絡數據]的關係,橫軸是網絡數據數量。

兩個縱軸從上到下分別爲RTT和發送速率,並且整個過程分爲了3個階段:應用限制階段、帶寬限制階段、緩衝區限制階段

2.曲線過程說明:

  • app limit應用限制階段
    在這個階段是應用程序開始發送數據,目前網絡通暢RTT基本保持固定且很小,發送速率與RTT成反比,因此發送速率也是線性增加的,可以簡單認爲這個階段有效帶寬並沒有達到上限,RTT是幾乎固定的沒有明顯增長。

  • band limit帶寬限制階段
    隨着發送速率提高,網絡中的數據包越來越多開始佔用鏈路Buffer,此時RTT開始增加發送速率不再上升,有效帶寬開始出現瓶頸,但是此時鏈路中的緩存區並沒有佔滿,因此數據還在增加,RTT也開始增加。

  • buffer limit緩衝區限制階段
    隨着鏈路中的Buffer被佔滿,開始出現丟包,這也是探測到的最大帶寬,這個節點BDP+BufferSize也是基於丟包的控制策略的作用點。

3.一些看法

網上有一些資料都提及到了這張圖,其中的一些解釋也並不算非常清晰,結合這些資料和自己的認識,筆者認爲在網絡鏈路的緩存區沒有被使用時RTT爲最小延時MinRTT,在網絡鏈路緩衝區被佔滿時出現最大帶寬MaxBW(鏈路帶寬+鏈路緩存),但是此時的MaxBW和MinRTT並不是最優的而是水位比較高的水平,有數據表明按照2ln2的增益計算此時爲3BDP,整個過程中MinRTT和MaxBW是分開探測的,因爲這二者是不能同時被測量的。

3.2.4 BBR算法的主要過程

BBR算法和CUBIC算法類似,也同樣有幾個過程:StartUp、Drain、Probe_BW、Probe_RTT,來看下這幾個狀態的遷移情況:

  • StartUp慢啓動階段
    BBR的慢啓動階段類似於CUBIC的慢啓動,同樣是進行探測式加速區別在於BBR的慢啓動使用2ln2的增益加速,過程中即使發生丟包也不會引起速率的降低,而是依據返回的確認數據包來判斷帶寬增長,直到帶寬不再增長時就停止慢啓動而進入下一個階段,需要注意的是在尋找最大帶寬的過程中產生了多餘的2BDP的數據量,關於這塊可以看下英文原文的解釋:

To handle Internet link bandwidths spanning 12 orders of magnitude, Startup implements a binary search for BtlBw by using a gain of 2/ln2 to double the sending rate while delivery rate is increasing. This discovers BtlBw in log2BDP RTTs but creates up to 2BDP excess queue in the process.

  • Drain排空階段
    排空階段是爲了把慢啓動結束時多餘的2BDP的數據量清空,此階段發送速率開始下降,也就是單位時間發送的數據包數量在下降,直到未確認的數據包數量<BDP時認爲已經排空,也可以認爲是RTT不再下降爲止,排空階段結束。

  • ProbeBW帶寬探測階段
    經過慢啓動和排空之後,目前發送方進入穩定狀態進行數據的發送,由於網絡帶寬的變化要比RTT更爲頻繁,因此ProbeBW階段也是BBR的主要階段,在探測期中增加發包速率如果數據包ACK並沒有受影響那麼就繼續增加,探測到帶寬降低時也進行發包速率下降。

  • ProbeRTT延時探測階段
    前面三個過程在運行時都可能進入ProbeRTT階段,當某個設定時間內都沒有更新最小延時狀態下開始降低數據包發送量,試圖探測到更小的MinRTT,探測完成之後再根據最新數據來確定進入慢啓動還是ProbeBW階段。

們來看一下這四個過程的示意圖:

曲線說明這兩個座標給出了10Mbps和40msRTT的網絡環境下CUBIC和BBR的一個對比過程,在上面的圖中藍色表示接收者,紅色表示CUBIC,綠色表示BBR,在下面的圖中給出了對應上圖過程中的RTT波動情況,紅色代表CUBIC,綠色代表BBR。

0x04.TCP BBR算法的一些效果

有一些文章認爲BBR有鮮明的特點,把擁塞控制算法分爲BBR之前和BBR之後,可見BBR還是有一定影響,但是BBR算法也不是銀彈,不過可以先看看BBR算法在谷歌推動下的一些應用效果,其中包括吞吐量、RTT、丟包率影響

從圖中我們可以看到在YouTube應用BBR算法之後,就吞吐量普遍有4%左右的提升,特別地在日本的提升達到14%,RTT的下降更爲明顯平均降低33%,其中IN(猜測是印度地區)達到50%以上,在丟包率測試中BBR並不想CUBIC那麼敏感,在丟包率達到5%是吞吐量纔開始明顯下降。

0x05.總結

本文先回顧了以CUBIC爲代表傳統的擁塞控制算法,之後展開了對BBR算法的一些介紹。

網絡上關於BBR的文章很多,筆者也嘗試結合很多文章和外文資料進行理解和歸納,但是由於筆者工作經驗和水平所致上述文字中可能存在一些問題,對此表達歉意,並且很多細節也並未展開,所以只能當做是一次淺談了。

0x06.巨人的肩膀

  • https://cloud.tencent.com/developer/article/1369617

  • https://www.cnblogs.com/codingMozart/p/9497254.html

  • https://blog.csdn.net/dog250/article/details/57072103

  • https://my.oschina.net/piorcn/blog/806997

  • https://my.oschina.net/piorcn/blog/806994

  • https://my.oschina.net/piorcn/blog/806989

  • https://accedian.com/enterprises/blog/measuring-network-performance-latency-throughput-packet-loss/

  • https://mp.weixin.qq.com/s/BGWkvLl0AAx9slI1lSZMgw

  • https://www.zhihu.com/question/53559433

  • https://cloud.google.com/blog/products/gcp/tcp-bbr-congestion-control-comes-to-gcp-your-internet-just-got-faster

  • https://cloud.tencent.com/developer/article/1383232

  • https://queue.acm.org/detail.cfm?id=3022184

  • https://juejin.im/post/5e0894a3f265da33d83e85fe

  • https://zhuanlan.zhihu.com/p/63888741

0x07.關於我

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章