面試問:Kafka爲什麼速度那麼快?

在這裏插入圖片描述
Kafka的消息是保存或緩存在磁盤上的,一般認爲在磁盤上讀寫數據是會降低性能的,因爲尋址會比較消耗時間,但是實際上,Kafka的特性之一就是高吞吐率。即使是普通的服務器,Kafka也可以輕鬆支持每秒百萬級的寫入請求,超過了大部分的消息中間件,這種特性也使得Kafka在日誌處理等海量數據場景廣泛應用。

針對Kafka的基準測試可以參考,Apache Kafka基準測試:每秒寫入2百萬(在三臺廉價機器上)對Java技術,架構技術感興趣的朋友,歡迎加QQ羣:728821520,一起學習,相互討論。

下面從數據寫入和讀取兩方面分析,爲什麼Kafka速度這麼快。

一、寫入數據

Kafka會把收到的消息都寫入到硬盤中,它絕對不會丟失數據。爲了優化寫入速度Kafka採用了兩個技術, 順序寫入和MMFile 。

順序寫入

磁盤讀寫的快慢取決於你怎麼使用它,也就是順序讀寫或者隨機讀寫。在順序讀寫的情況下,磁盤的順序讀寫速度和內存持平。

因爲硬盤是機械結構,每次讀寫都會尋址->寫入,其中尋址是一個“機械動作”,它是最耗時的。所以硬盤最討厭隨機I/O,最喜歡順序I/O。爲了提高讀寫硬盤的速度,Kafka就是使用順序I/O。

而且Linux對於磁盤的讀寫優化也比較多,包括read-ahead和write-behind,磁盤緩存等。如果在內存做這些操作的時候,一個是JAVA對象的內存開銷很大,另一個是隨着堆內存數據的增多,JAVA的GC時間會變得很長,使用磁盤操作有以下幾個好處:

1、順序寫入磁盤順序讀寫速度超過內存隨機讀寫

2、順序寫入JVM的GC效率低,內存佔用大。使用磁盤可以避免這一問題

3、順序寫入系統冷啓動後,磁盤緩存依然可用

下圖就展示了Kafka是如何寫入數據的, 每一個Partition其實都是一個文件 ,收到消息後Kafka會把數據插入到文件末尾(虛框部分):
在這裏插入圖片描述

這種方法有一個缺陷——沒有辦法刪除數據 ,所以Kafka是不會刪除數據的,它會把所有的數據都保留下來,每個消費者(Consumer)對每個Topic都有一個offset用來表示讀取到了第幾條數據 。
在這裏插入圖片描述
兩個消費者:

1、順序寫入Consumer1有兩個offset分別對應Partition0、Partition1(假設每一個Topic一個Partition);

2、順序寫入Consumer2有一個offset對應Partition2。

這個offset是由客戶端SDK負責保存的,Kafka的Broker完全無視這個東西的存在;一般情況下SDK會把它保存到Zookeeper裏面,所以需要給Consumer提供zookeeper的地址。

如果不刪除硬盤肯定會被撐滿,所以Kakfa提供了兩種策略來刪除數據:

1、順序寫入一是基於時間。

2、順序寫入二是基於partition文件大小。

具體配置可以參看它的配置文檔

Memory Mapped Files

即便是順序寫入硬盤,硬盤的訪問速度還是不可能追上內存。所以Kafka的數據並不是實時的寫入硬盤 ,它充分利用了現代操作系統分頁存儲來利用內存提高I/O效率。

Memory Mapped Files(後面簡稱mmap)也被翻譯成 內存映射文件 ,在64位操作系統中一般可以表示20G的數據文件,它的工作原理是直接利用操作系統的Page來實現文件到物理內存的直接映射。

完成映射之後你對物理內存的操作會被同步到硬盤上(操作系統在適當的時候)。

通過mmap,進程像讀寫硬盤一樣讀寫內存(當然是虛擬機內存),也不必關心內存的大小有虛擬內存爲我們兜底。

使用這種方式可以獲取很大的I/O提升,省去了用戶空間到內核空間複製的開銷(調用文件的read會把數據先放到內核空間的內存中,然後再複製到用戶空間的內存中。)

但也有一個很明顯的缺陷——不可靠,寫到mmap中的數據並沒有被真正的寫到硬盤,操作系統會在程序主動調用flush的時候才把數據真正的寫到硬盤。

Kafka提供了一個參數——producer.type來控制是不是主動flush,如果Kafka寫入到mmap之後就立即flush然後再返回Producer叫 同步 (sync);寫入mmap之後立即返回Producer不調用flush叫異步 (async)。

二、讀取數據

Kafka在讀取磁盤時做了哪些優化?

基於sendfile實現Zero Copy

傳統模式下,當需要對一個文件進行傳輸的時候,其具體流程細節如下:

1、基於sendfile實現Zero Copy調用read函數,文件數據被copy到內核緩衝區

2、read函數返回,文件數據從內核緩衝區copy到用戶緩衝區

3、write函數調用,將文件數據從用戶緩衝區copy到內核與socket相關的緩衝區。

4、數據從socket緩衝區copy到相關協議引擎。

以上細節是傳統read/write方式進行網絡文件傳輸的方式,我們可以看到,在這個過程當中,文件數據實際上是經過了四次copy操作:

硬盤—>內核buf—>用戶buf—>socket相關緩衝區—>協議引擎

而sendfile系統調用則提供了一種減少以上多次copy,提升文件傳輸性能的方法。

在內核版本2.1中,引入了sendfile系統調用,以簡化網絡上和兩個本地文件之間的數據傳輸。sendfile的引入不僅減少了數據複製,還減少了上下文切換。

sendfile(socket, file, len);

運行流程如下:

1、sendfile系統調用,文件數據被copy至內核緩衝區

2、再從內核緩衝區copy至內核中socket相關的緩衝區

3、最後再socket相關的緩衝區copy到協議引擎

相較傳統read/write方式,2.1版本內核引進的sendfile已經減少了內核緩衝區到user緩衝區,再由user緩衝區到socket相關緩衝區的文件copy,而在內核版本2.4之後,文件描述符結果被改變,sendfile實現了更簡單的方式,再次減少了一次copy操作。

在Apache、Nginx、lighttpd等web服務器當中,都有一項sendfile相關的配置,使用sendfile可以大幅提升文件傳輸性能。

Kafka把所有的消息都存放在一個一個的文件中,當消費者需要數據的時候Kafka直接把文件發送給消費者,配合mmap作爲文件讀寫方式,直接把它傳給sendfile。

批量壓縮

在很多情況下,系統的瓶頸不是CPU或磁盤,而是網絡IO,對於需要在廣域網上的數據中心之間發送消息的數據流水線尤其如此。進行數據壓縮會消耗少量的CPU資源,不過對於kafka而言,網絡IO更應該需要考慮。

1、如果每個消息都壓縮,但是壓縮率相對很低,所以Kafka使用了批量壓縮,即將多個消息一起壓縮而不是單個消息壓縮

2、Kafka允許使用遞歸的消息集合,批量的消息可以通過壓縮的形式傳輸並且在日誌中也可以保持壓縮格式,直到被消費者解壓縮

3、Kafka支持多種壓縮協議,包括Gzip和Snappy壓縮協議

三、總結

Kafka速度的祕訣在於,它把所有的消息都變成一個批量的文件,並且進行合理的批量壓縮,減少網絡IO損耗,通過mmap提高I/O速度,寫入數據的時候由於單個Partion是末尾添加所以速度最優;讀取數據的時候配合sendfile直接暴力輸出。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章