併發之痛 Thread,Goroutine,Actor

協程的本質

單線程實現併發。

協程在配合異步非阻塞的設計時,面對io問題時能承受比較大的併發量。

面對非io問題如計算問題,還是沒有多線程優勢,因爲多線程能利用多核。

併發與並行

併發:concurrent

並行:paralle

併發:是指一個時間段中有幾個程序都處於已啓動運行到運行完畢之間,且這幾個程序都是在同一個處理機(CPU)上運行,但任一個時刻點上只有一個程序在處理機上運行。

並行:是指任何時間點,有多個程序運行在多個CPU上(最多和CPU數量一致)。

 

 

 

以下內容轉自:https://jolestar.com/parallel-programming-model-thread-goroutine-actor/

本文基於我在2月27日Gopher北京聚會演講整理而成,進行了一些補充以及調整。投稿給《高可用架構》公衆號首發。

聊這個話題之前,先梳理下兩個概念,幾乎所有講併發的文章都要先講這兩個概念:

concurrent_vs_parallel

  • 併發(concurrency) 併發的關注點在於任務切分。舉例來說,你是一個創業公司的CEO,開始只有你一個人,你一人分飾多角,一會做產品規劃,一會寫代碼,一會見客戶,雖然你不能見客戶的同時寫代碼,但由於你切分了任務,分配了時間片,表現出來好像是多個任務一起在執行。
  • 並行(parallelism) 並行的關注點在於同時執行。還是上面的例子,你發現你自己太忙了,時間分配不過來,於是請了工程師,產品經理,市場總監,各司一職,這時候多個任務可以同時執行了。

所以總結下,併發並不要求必須並行,可以用時間片切分的方式模擬,比如單核cpu上的多任務系統,併發的要求是任務能切分成獨立執行的片段。而並行關注的是同時執行,必須是多(核)cpu,要能並行的程序必須是支持併發的。本文大多數情況下不會嚴格區分這兩個概念,默認併發就是指並行機制下的併發。

爲什麼併發程序這麼難?


We believe that writing correct concurrentfault-tolerant and scalable applications is too hard. Most of the time it’s because we are using the wrong tools and the wrong level of abstraction. —— Akka

Akka官方文檔開篇這句話說的好,之所以寫正確的併發,容錯,可擴展的程序如此之難,是因爲我們用了錯誤的工具和錯誤的抽象。(當然該文檔本來的意思是Akka是正確的工具,但我們可以獨立的看待這句話)。

那我們從最開始梳理下程序的抽象。開始我們的程序是面向過程的,數據結構+func。後來有了面向對象,對象組合了數結構和func,我們想用模擬現實世界的方式,抽象出對象,有狀態和行爲。但無論是面向過程的func還是面向對象的func,本質上都是代碼塊的組織單元,本身並沒有包含代碼塊的併發策略的定義。於是爲了解決併發的需求,引入了Thread(線程)的概念。

線程(Thread)

  1. 系統內核態,更輕量的進程
  2. 由系統內核進行調度
  3. 同一進程的多個線程可共享資源

線程的出現解決了兩個問題,一個是GUI出現後急切需要併發機制來保證用戶界面的響應。第二是互聯網發展後帶來的多用戶問題。最早的CGI程序很簡單,將通過腳本將原來單機版的程序包裝在一個進程裏,來一個用戶就啓動一個進程。但明顯這樣承載不了多少用戶,並且如果進程間需要共享資源還得通過進程間的通信機制,線程的出現緩解了這個問題。

線程的使用比較簡單,如果你覺得這塊代碼需要併發,就把它放在單獨的線程裏執行,由系統負責調度,具體什麼時候使用線程,要用多少個線程,由調用方決定,但定義方並不清楚調用方會如何使用自己的代碼,很多併發問題都是因爲誤用導致的,比如Go中的map以及Java的HashMap都不是併發安全的,誤用在多線程環境就會導致問題。另外也帶來複雜度:

  1. 競態條件(race conditions) 如果每個任務都是獨立的,不需要共享任何資源,那線程也就非常簡單。但世界往往是複雜的,總有一些資源需要共享,比如前面的例子,開發人員和市場人員同時需要和CEO商量一個方案,這時候CEO就成了競態條件。
  2. 依賴關係以及執行順序 如果線程之間的任務有依賴關係,需要等待以及通知機制來進行協調。比如前面的例子,如果產品和CEO討論的方案依賴於市場和CEO討論的方案,這時候就需要協調機制保證順序。

爲了解決上述問題,我們引入了許多複雜機制來保證:

  • Mutex(Lock) (Go裏的sync包, Java的concurrent包)通過互斥量來保護數據,但有了鎖,明顯就降低了併發度。
  • semaphore 通過信號量來控制併發度或者作爲線程間信號(signal)通知。
  • volatile Java專門引入了volatile關鍵詞來,來降低只讀情況下的鎖的使用。
  • compare-and-swap 通過硬件提供的CAS機制保證原子性(atomic),也是降低鎖的成本的機制。

如果說上面兩個問題只是增加了複雜度,我們通過深入學習,嚴謹的CodeReview,全面的併發測試(比如Go語言中單元測試的時候加上-race參數),一定程度上能解決(當然這個也是有爭議的,有論文認爲當前的大多數併發程序沒出問題只是併發度不夠,如果CPU核數繼續增加,程序運行的時間更長,很難保證不出問題)。但最讓人頭痛的還是下面這個問題:

系統裏到底需要多少線程?

這個問題我們先從硬件資源入手,考慮下線程的成本:

  • 內存(線程的棧空間)
    每個線程都需要一個棧(Stack)空間來保存掛起(suspending)時的狀態。Java的棧空間(64位VM)默認是1024k,不算別的內存,只是棧空間,啓動1024個線程就要1G內存。雖然可以用-Xss參數控制,但由於線程是本質上也是進程,系統假定是要長期運行的,棧空間太小會導致稍複雜的遞歸調用(比如複雜點的正則表達式匹配)導致棧溢出。所以調整參數治標不治本。
  • 調度成本(context-switch)
    我在個人電腦上做的一個非嚴格測試,模擬兩個線程互相喚醒輪流掛起,線程切換成本大約6000納秒/次。這個還沒考慮棧空間大小的影響。國外一篇論文專門分析線程切換的成本,基本上得出的結論是切換成本和棧空間使用大小直接相關。

    context switch

  • CPU使用率
    我們搞併發最主要的一個目標就是我們有了多核,想提高CPU利用率,最大限度的壓榨硬件資源,從這個角度考慮,我們應該用多少線程呢?
    cpu ratio

    這個我們可以通過一個公式計算出來,100/(15+5)*4=20,用20個線程最合適。但一方面網絡的時間不是固定的,另外一方面,如果考慮到其他瓶頸資源呢?比如鎖,比如數據庫連接池,就會更復雜。

作爲一個1歲多孩子的父親,認爲這個問題的難度好比你要寫個給孩子餵飯的程序,需要考慮『給孩子喂多少飯合適?』,這個問題有以下回答以及策略:

  • 孩子不吃了就好了(但孩子貪玩,不吃了可能是想去玩了)
  • 孩子吃飽了就好了(廢話,你怎麼知道孩子吃飽了?孩子又不會說話)
  • 逐漸增量,長期觀察,然後計算一個平均值(這可能是我們調整線程常用的策略,但增量增加到多少合適呢?)
  • 孩子吃吐了就別餵了(如果用逐漸增量的模式,通過外部觀察,可能會到達這個邊界條件。系統性能如果因爲線程的增加倒退了,就別增加線程了)
  • 沒控制好邊界,把孩子給給撐壞了 (這熊爸爸也太恐怖了。但調整線程的時候往往不小心可能就把系統搞掛了)

通過這個例子我們可以看出,從外部系統來觀察,或者以經驗的方式進行計算,都是非常困難的。於是結論是:

讓孩子會說話,吃飽了自己說,自己學會吃飯,自管理是最佳方案。

然並卵,計算機不會自己說話,如何自管理?

但我們從以上的討論可以得出一個結論:

  • 線程的成本較高(內存,調度)不可能大規模創建
  • 應該由語言或者框架動態解決這個問題

線程池方案


Java1.5後,Doug Lea的Executor系列被包含在默認的JDK內,是典型的線程池方案。

線程池一定程度上控制了線程的數量,實現了線程複用,降低了線程的使用成本。但還是沒有解決數量的問題,線程池初始化的時候還是要設置一個最小和最大線程數,以及任務隊列的長度,自管理只是在設定範圍內的動態調整。另外不同的任務可能有不同的併發需求,爲了避免互相影響可能需要多個線程池,最後導致的結果就是Java的系統裏充斥了大量的線程池。

新的思路


從前面的分析我們可以看出,如果線程是一直處於運行狀態,我們只需設置和CPU核數相等的線程數即可,這樣就可以最大化的利用CPU,並且降低切換成本以及內存使用。但如何做到這一點呢?

陳力就列,不能者止

這句話是說,能幹活的代碼片段就放在線程裏,如果幹不了活(需要等待,被阻塞等),就摘下來。通俗的說就是不要佔着茅坑不拉屎,如果拉不出來,需要醞釀下,先把茅坑讓出來,因爲茅坑是稀缺資源。

要做到這點一般有兩種方案:

  1. 異步回調方案 典型如NodeJS,遇到阻塞的情況,比如網絡調用,則註冊一個回調方法(其實還包括了一些上下文數據對象)給IO調度器(linux下是libev,調度器在另外的線程裏),當前線程就被釋放了,去幹別的事情了。等數據準備好,調度器會將結果傳遞給回調方法然後執行,執行其實不在原來發起請求的線程裏了,但對用戶來說無感知。但這種方式的問題就是很容易遇到callback hell,因爲所有的阻塞操作都必須異步,否則系統就卡死了。還有就是異步的方式有點違反人類思維習慣,人類還是習慣同步的方式。

  2. GreenThread/Coroutine/Fiber方案 這種方案其實和上面的方案本質上區別不大,關鍵在於回調上下文的保存以及執行機制。爲了解決回調方法帶來的難題,這種方案的思路是寫代碼的時候還是按順序寫,但遇到IO等阻塞調用時,將當前的代碼片段暫停,保存上下文,讓出當前線程。等IO事件回來,然後再找個線程讓當前代碼片段恢復上下文繼續執行,寫代碼的時候感覺好像是同步的,彷彿在同一個線程完成的,但實際上系統可能切換了線程,但對程序無感。

GreenThread

  • 用戶空間 首先是在用戶空間,避免內核態和用戶態的切換導致的成本。
  • 由語言或者框架層調度
  • 更小的棧空間允許創建大量實例(百萬級別)

幾個概念

  • Continuation 這個概念不熟悉FP編程的人可能不太熟悉,不過這裏可以簡單的顧名思義,可以理解爲讓我們的程序可以暫停,然後下次調用繼續(contine)從上次暫停的地方開始的一種機制。相當於程序調用多了一種入口。
  • Coroutine 是Continuation的一種實現,一般表現爲語言層面的組件或者類庫。主要提供yield,resume機制。
  • Fiber 和Coroutine其實是一體兩面的,主要是從系統層面描述,可以理解成Coroutine運行之後的東西就是Fiber。

Goroutine


Goroutine其實就是前面GreenThread系列解決方案的一種演進和實現。

  • 首先,它內置了Coroutine機制。因爲要用戶態的調度,必須有可以讓代碼片段可以暫停/繼續的機制。
  • 其次,它內置了一個調度器,實現了Coroutine的多線程並行調度,同時通過對網絡等庫的封裝,對用戶屏蔽了調度細節。
  • 最後,提供了Channel機制,用於Goroutine之間通信,實現CSP併發模型(Communicating Sequential Processes)。因爲Go的Channel是通過語法關鍵詞提供的,對用戶屏蔽了許多細節。其實Go的Channel和Java中的SynchronousQueue是一樣的機制,如果有buffer其實就是ArrayBlockQueue。

Goroutine調度器

go-scheduler

這個圖一般講Goroutine調度器的地方都會引用,想要仔細瞭解的可以看看原博客。這裏只說明幾點:

  1. M代表系統線程,P代表處理器(核),G代表Goroutine。Go實現了M:N的調度,也就是說線程和Goroutine之間是多對多的關係。這點在許多GreenThread/Coroutine的調度器並沒有實現。比如Java1.1版本之前的線程其實是GreenThread(這個詞就來源於Java),但由於沒實現多對多的調度,也就是沒有真正實現並行,發揮不了多核的優勢,所以後來改成基於系統內核的Thread實現了。
  2. 某個系統線程如果被阻塞,排列在該線程上的Goroutine會被遷移。當然還有其他機制,比如M空閒了,如果全局隊列沒有任務,可能會從其他M偷任務執行,相當於一種rebalance機制。這裏不再細說,有需要看專門的分析文章。
  3. 具體的實現策略和我們前面分析的機制類似。系統啓動時,會啓動一個獨立的後臺線程(不在Goroutine的調度線程池裏),啓動netpoll的輪詢。當有Goroutine發起網絡請求時,網絡庫會將fd(文件描述符)和pollDesc(用於描述netpoll的結構體,包含因爲讀/寫這個fd而阻塞的Goroutine)關聯起來,然後調用runtime.gopark方法,掛起當前的Goroutine。當後臺的netpoll輪詢獲取到epoll(linux環境下)的event,會將event中的pollDesc取出來,找到關聯的阻塞Goroutine,並進行恢復。

Goroutine是銀彈麼?

Goroutine很大程度上降低了併發的開發成本,是不是我們所有需要併發的地方直接go func就搞定了呢?

Go通過Goroutine的調度解決了CPU利用率的問題。但遇到其他的瓶頸資源如何處理?比如帶鎖的共享資源,比如數據庫連接等。互聯網在線應用場景下,如果每個請求都扔到一個Goroutine裏,當資源出現瓶頸的時候,會導致大量的Goroutine阻塞,最後用戶請求超時。這時候就需要用Goroutine池來進行控流,同時問題又來了:池子裏設置多少個Goroutine合適?

所以這個問題還是沒有從更本上解決。

Actor模型


Actor對沒接觸過這個概念的人可能不太好理解,Actor的概念其實和OO裏的對象類似,是一種抽象。面對對象編程對現實的抽象是對象=屬性+行爲(method),但當使用方調用對象行爲(method)的時候,其實佔用的是調用方的CPU時間片,是否併發也是由調用方決定的。這個抽象其實和現實世界是有差異的。現實世界更像Actor的抽象,互相都是通過異步消息通信的。比如你對一個美女say hi,美女是否迴應,如何迴應是由美女自己決定的,運行在美女自己的大腦裏,並不會佔用發送者的大腦。

所以Actor有以下特徵:

  • Processing – actor可以做計算的,不需要佔用調用方的CPU時間片,併發策略也是由自己決定。
  • Storage – actor可以保存狀態
  • Communication – actor之間可以通過發送消息通訊

Actor遵循以下規則:

  • 發送消息給其他的Actor
  • 創建其他的Actor
  • 接受並處理消息,修改自己的狀態

Actor的目標:

  • Actor可獨立更新,實現熱升級。因爲Actor互相之間沒有直接的耦合,是相對獨立的實體,可能實現熱升級。
  • 無縫彌合本地和遠程調用 因爲Actor使用基於消息的通訊機制,無論是和本地的Actor,還是遠程Actor交互,都是通過消息,這樣就彌合了本地和遠程的差異。
  • 容錯 Actor之間的通信是異步的,發送方只管發送,不關心超時以及錯誤,這些都由框架層和獨立的錯誤處理機制接管。
  • 易擴展,天然分佈式 因爲Actor的通信機制彌合了本地和遠程調用,本地Actor處理不過來的時候,可以在遠程節點上啓動Actor然後轉發消息過去。

Actor的實現:

  • Erlang/OTP Actor模型的標杆,其他的實現基本上都一定程度參照了Erlang的模式。實現了熱升級以及分佈式。
  • Akka(Scala,Java)基於線程和異步回調模式實現。由於Java中沒有Fiber,所以是基於線程的。爲了避免線程被阻塞,Akka中所有的阻塞操作都需要異步化。要麼是Akka提供的異步框架,要麼通過Future-callback機制,轉換成回調模式。實現了分佈式,但還不支持熱升級。
  • Quasar (Java) 爲了解決Akka的阻塞回調問題,Quasar通過字節碼增強的方式,在Java中實現了Coroutine/Fiber。同時通過ClassLoader的機制實現了熱升級。缺點是系統啓動的時候要通過javaagent機制進行字節碼增強。

Golang CSP VS Actor


二者的格言都是:

Don’t communicate by sharing memory, share memory by communicating

通過消息通信的機制來避免競態條件,但具體的抽象和實現上有些差異。

  • CSP模型裏消息和Channel是主體,處理器是匿名的。
    也就是說發送方需要關心自己的消息類型以及應該寫到哪個Channel,但不需要關心誰消費了它,以及有多少個消費者。Channel一般都是類型綁定的,一個Channel只寫同一種類型的消息,所以CSP需要支持alt/select機制,同時監聽多個Channel。Channel是同步的模式(Golang的Channel支持buffer,支持一定數量的異步),背後的邏輯是發送方非常關心消息是否被處理,CSP要保證每個消息都被正常處理了,沒被處理就阻塞着。
  • Actor模型裏Actor是主體,Mailbox(類似於CSP的Channel)是透明的。
    也就是說它假定發送方會關心消息發給誰消費了,但不關心消息類型以及通道。所以Mailbox是異步模式,發送者不能假定發送的消息一定被收到和處理。Actor模型必須支持強大的模式匹配機制,因爲無論什麼類型的消息都會通過同一個通道發送過來,需要通過模式匹配機制做分發。它背後的邏輯是現實世界本來就是異步的,不確定(non-deterministic)的,所以程序也要適應面對不確定的機制編程。自從有了並行之後,原來的確定編程思維模式已經受到了挑戰,而Actor直接在模式中蘊含了這點。

從這樣看來,CSP的模式比較適合Boss-Worker模式的任務分發機制,它的侵入性沒那麼強,可以在現有的系統中通過CSP解決某個具體的問題。它並不試圖解決通信的超時容錯問題,這個還是需要發起方進行處理。同時由於Channel是顯式的,雖然可以通過netchan(原來Go提供的netchan機制由於過於複雜,被廢棄,在討論新的netchan)實現遠程Channel,但很難做到對使用方透明。而Actor則是一種全新的抽象,使用Actor要面臨整個應用架構機制和思維方式的變更。它試圖要解決的問題要更廣一些,比如容錯,比如分佈式。但Actor的問題在於以當前的調度效率,哪怕是用Goroutine這樣的機制,也很難達到直接方法調用的效率。當前要像OO的『一切皆對象』一樣實現一個『一切皆Actor』的語言,效率上肯定有問題。所以折中的方式是在OO的基礎上,將系統的某個層面的組件抽象爲Actor。

再扯一下Rust


Rust解決併發問題的思路是首先承認現實世界的資源總是有限的,想徹底避免資源共享是很難的,不試圖完全避免資源共享,它認爲併發的問題不在於資源共享,而在於錯誤的使用資源共享。比如我們前面提到的,大多數語言定義類型的時候,並不能限制調用方如何使用,只能通過文檔或者標記的方式(比如Java中的@ThreadSafe ,@NotThreadSafe annotation)說明是否併發安全,但也只能僅僅做到提示的作用,不能阻止調用方誤用。雖然Go提供了-race機制,可以通過運行單元測試的時候帶上這個參數來檢測競態條件,但如果你的單元測試併發度不夠,覆蓋面不到也檢測不出來。所以Rust的解決方案就是:

  • 定義類型的時候要明確指定該類型是否是併發安全的
  • 引入了變量的所有權(Ownership)概念 非併發安全的數據結構在多個線程間轉移,也不一定就會導致問題,導致問題的是多個線程同時操作,也就是說是因爲這個變量的所有權不明確導致的。有了所有權的概念後,變量只能由擁有所有權的作用域代碼操作,而變量傳遞會導致所有權變更,從語言層面限制了競態條件出現的情況。

有了這機制,Rust可以在編譯期而不是運行期對競態條件做檢查和限制。雖然開發的時候增加了心智成本,但降低了調用方以及排查併發問題的心智成本,也是一種有特色的解決方案。

結論

革命尚未成功 同志任需努力

本文帶大家一起回顧了併發的問題,和各種解決方案。雖然各家有各家的優勢以及使用場景,但併發帶來的問題還遠遠沒到解決的程度。所以還需努力,大家也有機會啊。

最後拋個磚 構想:在Goroutine上實現Actor?

  • 分佈式 解決了單機效率問題,是不是可以嘗試解決下分佈式效率問題?
  • 和容器集羣融合 當前的自動伸縮方案基本上都是通過監控服務器或者LoadBalancer,設置一個閥值來實現的。類似於我前面提到的餵飯的例子,是基於經驗的方案,但如果系統內和外部集羣結合,這個事情就可以做的更細緻和智能。
  • 自管理 前面的兩點最終的目標都是實現一個可以自管理的系統。做過系統運維的同學都知道,我們照顧系統就像照顧孩子一樣,時刻要監控系統的各種狀態,接受系統的各種報警,然後排查問題,進行緊急處理。孩子有長大的一天,那能不能讓系統也自己成長,做到自管理呢?雖然這個目標現在看來還比較遠,但我覺得是可以期待的。

 

 

以下內容轉自:https://zhuanlan.zhihu.com/p/65154410

協程和異步回調方案實現高io併發

因爲傳統多線程,即使採用線程池情況下,切換線程也會大量耗費系統資源。一個cpu核心對應一個執行棧,理想情況下線程不切換,只需要設置和cpu核心數一樣的線程數是最高效率的。基於這個想法,有兩個方案,協程和異步回調方案。

一:協程方案

傳統多線程切換,由系統控制,採取搶佔式多任務策略,線程間切換不可由程序員控制。協程的出發點是由程序員控制線程切換,不由系統控制線程切換,減少線程切換次數,降低線程切換成本。

從技術角度上看,協程是一個可以中斷再執行的函數,和生成器完全是一樣的。協程優點在於,協程在配合異步非阻塞的設計時,面對io問題時能承受比較大的併發量,面對非io問題如計算問題,還是沒有多線程優勢,因爲多線程能利用多核。單進程情況下的協程由於只有一個執行棧是無法利用多核的。

協程方案的思路是寫代碼還是按順序寫,但是遇到io等需要原阻塞等待的系統調用時候,將當前執行棧暫停,保存上下文,讓出當前執行棧(執行線程,從語法上看就是yield出去,yield這個詞可以看成讓出當前線程的控制權),執行其它代碼,等io事件完成,然後再找個線程恢復之前的上下文,繼續執行。寫代碼時候,像同步單線程一樣寫,但是執行上由程序員控制線程切換,配合異步非阻塞的api,可以承受大量io情況下實現併發。

二:異步回調方案

典型如NodeJS,遇到阻塞的情況,比如網絡調用,則註冊一個回調方法(其實還包括了一些上下文數據對象)給IO調度器(linux下是libuv,調度器在另外的線程裏),當前線程就被釋放了,去幹別的事情了。等數據準備好,調度器會將結果傳遞給回調方法然後執行,自始至終都是那一個執行棧(執行線程)。但這種寫法的問題就是很容易遇到callback hell,這種異步非阻塞api配合回調函數的寫法有點反人類。程序員還是習慣同步的寫法。

總結來說:異步回調和協程實現高io併發的原理,就是當遇到代碼阻塞時候,就扔出當前的線程(執行棧),讓別的需要執行代碼執行。異步回調和協程必須要配合異步非阻塞的io調用api使用,才能實現io高併發。

異步回調和協程核心設計思想是差不多的。

 

發佈了40 篇原創文章 · 獲贊 1 · 訪問量 3412
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章