背景
前段時間,寫了一篇《高性能開發十大技術》,有讀者給我私信交流,····
曾經,我面試的時候有兩個最怕的。一怕問算法,二怕問高併發。
算法這個,自從關注了「小浩算法」,刷了不少LeetCode,發現還是有套路可循的,雖不敢說算法能力有多強,至少沒有以前那麼怕了(纔怪)。
而第二個,高性能高併發技術,感覺有好多技術要學,東學一點,西學一點,不成體系。直到有一次面試,遇到了一個大牛,問到了這方面,結果被虐的體無完膚。幸運的是,這位大牛不但技術一流,還認真跟我交流了學習心得,怎麼樣去有體系的系統去梳理這方面的技術知識,而不是瞎學。
CPU
不管什麼樣的編程語言,什麼樣的代碼框架,最終都是由CPU去執行完成的(當然這麼說不太準確,也有GPU、TPU、協處理器等其他情況,當然這不是本文探討的重點)。
所以要想提高性能,提高併發量,首要問題就是如何讓CPU跑的更快?
這個問題,也是一直以來CPU廠商一直在努力追求的方向。
如何讓CPU更快?CPU廠商做了兩個方面的努力:
加快指令執行的速度
加快CPU讀取數據的速度
對於第一個方向,CPU執行指令的快慢,是跟CPU的主頻緊密相關的,如何更快的取指令、指令譯碼、執行,縮短CPU的指令週期,提升主頻在相當長一段時間裏都是非常有效的辦法。
從幾百MHz,到如今到幾GHz,CPU主頻有了長足的進步,相同時間裏能夠執行的指令數變的更多了。
對於第二個方向,如何提升CPU讀取數據的速度,答案就是加緩存,利用局部性原理將內存中經常會訪問的數據搬運到CPU中,這樣大大提升了存取速度。
從一級緩存,到二級緩存,乃至三級緩存,CPU緩存的層級和容量也在不斷提升,讀寫數據的時間省了不少。
但隨着時間到推移,尤其進入21世紀之後,處理器廠商發現,進一步提升主頻變得越來越困難了,CPU的緩存也很難進一步擴容。
怎麼辦呢?既然一個人幹活的速度已經很難再提升,那何不多找幾個人一起幹?於是,多核技術來了,一個CPU裏面有多個核心,衆人划槳開大船,CPU的速度再一次騰飛~
甚至,讓一個核在“閒暇時間”,利用“閒置資源”去執行另外的線程,誕生了讓一個核“同時”執行兩個線程的超線程技術。
上面簡單交代了爲了提升性能,CPU所做的努力。但是光是CPU快是沒用的,還需要我們更好的去利用開發,否則就是對CPU算力的浪費。
上面提到了線程,是的,如何提高性能,提高併發量?使用多線程技術當然是一個非常好的思路。
但多線程的引入,就不得不提到兩個跟線程有關的話題:
線程同步
線程阻塞
多個線程協同工作,必然會引入同步的問題,常規解決方案是加鎖,加鎖的線程一般會進入阻塞。
線程遇到阻塞了,就需要切換,而切換是有一定的成本開銷的,不僅是系統調度的時間開銷,還可能有CPU緩存失效的損失。
如果線程頻頻加鎖,頻頻阻塞,那這個損失就相當可觀了。爲了提升性能,無鎖編程技術就出現了,利用CPU提供的機制,提供更輕量的加鎖方案。
同時,爲了讓切換後的線程仍然能夠在之前的CPU核心上運行,降低緩存損失,線程的CPU親和性綁定技術也出現了。
現代操作系統都是以時間片的形式來調度分配給多個線程使用。如果時間片還沒用完就因爲這樣或那樣的原因將執行機會拱手相讓,那線程也太虧了。
於是,有人提出要充分利用CPU,別讓線程阻塞,交出執行權,自己在應用層實現多個執行流的調度,這裏阻塞了,就去執行那裏,總之要把時間片充分用完,這就誕生了協程技術,阻塞了不要緊,我還能幹別的,不要輕易發生線程切換。
內存
與CPU工作相關的第一親密夥伴就是內存了,二者協作才能唱好一齣戲。
提升內存訪問的速度,同樣是高性能開發話題重要組成部分!
那如何提升呢?硬件層面程序員是很難改變的,咱們只好從軟件層面下功夫。
內存的管理經歷了從實地址模式到分頁式內存管理,如今的計算機中,CPU拿的的地址都是虛擬地址,這中間就會涉及到地址的轉換,在這裏就有文章可做,有兩個方向可以努力:
減少缺頁異常
使用大頁技術
現代操作系統,基本上都會使用一個叫換頁/交換文件的技術:內存空間有限,但進程越來越多,對內存空間的需求越來越大,用完了怎麼辦?於是在硬盤上劃分一塊區域出來,把內存中很久不用的數據轉移到這塊區域上來,等程序用到的時候,觸發訪問異常,再在異常處理函數中將其從硬盤讀取進來。
可以想象,如果程序訪問的內存老是不在內存中,而是被交換到了硬盤上,就會頻繁觸發缺頁異常,那程序的性能肯定大打折扣,所以減少缺頁異常也是提升性能的好辦法。
從虛擬地址尋址真實的物理內存,這個過程是CPU完成的,具體來說,就是通過查表,從頁表->一級頁目錄->二級頁目錄->物理內存。
頁目錄和頁表是存在內存中的,毫無疑問,內存尋址是一個非常非常高頻的事情,時時刻刻都在發生,而多次查表勢必是很慢的,有鑑於此,CPU引入了一個叫TLB(Translation Look- aside buffer)的東西,使用緩存頁表項的方式來減少內存查表的操作,加快尋址速度。
默認情況下,操作系統是以4KB爲單位管理內存頁的,對於一些需要大量內存的服務器程序(Redis、JVM、ElascticSearch等等),動輒就是幾十個G,按照4KB的單位劃分,那得產生多少的頁表項啊!
而CPU中的TLB的大小是有限的,內存越多,頁表項也就越多,TLB緩存失效的概率也就越大。所以,大頁內存技術就出現了,4KB太小,就弄大點。大頁內存技術的出現,減少了缺頁異常的出現次數,也提高了TLB命中的概率,對於提升性能有很大的幫助。
在一些高配置的服務器上,內存數量龐大,而CPU多個核都要通過內存總線訪問內存,可想而知,CPU核數上去以後,內存總線的競爭勢必也會加劇。於是NUMA架構出現了,把CPU核心劃分不同的分組,各自使用自己的內存訪問總線,提高內存的訪問速度。
I/O
CPU和內存都夠快了,但這還是不夠。我們的程序日常工作中,除了一些CPU密集型的程序(執行數學運算,加密解密,機器學習等等)以外,相當一部分時間都是在執行I/O,如讀寫硬盤文件、收發網絡數據包等等。
所以,如何提升I/O的速度,是高性能開發技術領域一個重要的話題。
因爲I/O會涉及到與外設(硬盤、網卡等)的交互,而這些外設又通常是非常慢(相對CPU執行速度)的,所以正常情況下,線程執行到I/O操作時難免會阻塞,這也是前面在CPU部分提到過的。
阻塞以後那就沒辦法幹活了,爲了能幹活,那就開多個線程。但線程資源是很昂貴的,沒辦法大量使用,況且線程多了,多個線程切換調度同樣是很花時間的。
那可不可以讓線程執行I/O時不阻塞呢?於是,新的技術又出現了:
非阻塞I/O
I/O多路複用
異步I/O
原來的阻塞I/O是一直等,等到I/O的完成,非阻塞I/O一般是輪詢,可以去幹別的事,過一會兒就來問一下:好了沒有?
但每個線程都去輪詢也不是個事兒啊,乾脆交給一個線程去專門負責吧,這就是I/O多路複用,通過select/poll的方式只用一個線程就可以處理多個I/O目標。再然後,再改進一下,用epoll,連輪詢也不用了,改用內核喚醒通知的機制,同時處理的I/O目標還更多了。
異步I/O就更爽了,設置一個回調函數,自己幹別的事去了,回頭操作系統叫你來收數據就好了。
再說回到I/O本身,會將數據在內存和外設之間傳輸,如果數據量很大,讓CPU去搬運數據的話,既耗時又沒有技術含量,這是對CPU算力的很大浪費。
所以,爲了將CPU從中解放出來,又誕生了一門技術:直接內存訪問DMA,把數據的傳輸工作外包出去,交由DMA控制器來完成,CPU只在背後發號施令即可。
有了DMA,再也不用麻煩CPU去執行數據的搬運工作。但對於應用程序而言,想要把文件通過網絡發送出去,還是要把數據在內核態空間和用戶態空間來回折騰兩次,這兩步還得CPU出馬去複製拷貝,屬於一種浪費,爲了解決這個問題,提升性能,又進一步產生了零拷貝技術,徹底爲CPU減負。
算法架構
CPU、內存、I/O都夠快了,單臺計算機的性能已經很難提升了。不過,現在的服務器很少是單打獨鬥了,接下來就要把目光轉移到算法、架構上來了。
一臺服務器搞不定,那就用硬件堆出性能來,分佈式集羣技術和負載均衡技術就派上用場了。
這年頭,哪個後端服務沒有數據庫?如何讓數據庫更快?該輪到索引技術上了,通過給數據庫建立索引,提升檢索速度。
但數據庫這傢伙的數據畢竟是存在硬盤上的,讀取的時候勢必會慢,要是大量的數據請求都懟上來,這誰頂得住?於是基於內存的數據庫緩存Redis、Memcached應運而生,畢竟,訪問內存比從數據庫查詢快得多。
算法架構這一塊的技術實在太多了,也是從一個普通碼農通往架構師的必經之路,咱們下回再聊。
總結
高性能、高併發是後端開發永恆追求的話題。
每一項技術都不是憑空出現的,一定是爲了解決某個問題而提出。我們在學這些技術的時候,掌握它出現的原因,和其他技術之間的關聯,在自己的大腦中建立一座技術知識層級圖,一定能事半功倍。
這幅圖中的絕大多數技術,我之前都有對應的趣味故事文章進行闡述,歡迎大家去翻一番~
關於本文,你有什麼想說的呢,或者有什麼重要技術被我遺漏了,歡迎留言討論。
免責聲明:本文系網絡轉載,版權歸原作者所有。如涉及作品版權問題,請與我們聯繫,我們將根據您提供的版權證明材料確認版權並支付稿酬或者刪除內容。