redis探祕:選擇合適的數據結構,減少80%的內存佔用,這些點你get到了嗎?

本文首發於京東零售平臺公衆號,https://mp.weixin.qq.com/s/uzuz7rqctQ-bjdRcf1tO9g

redis作爲目前最流行的nosql緩存數據庫,憑藉其優異的性能、豐富的數據結構已成爲大部分場景下首選的緩存工具。

由於redis是一個純內存的數據庫,在存放大量數據時,內存的佔用將會非常可觀。那麼在一些場景下,通過選用合適的數據結構來存儲,可以大幅減少內存的佔用,甚至於可以減少80%-99%的內存佔用。

利用zipList來替代大量的Key-Value

先來看一下場景,在Dsp廣告系統、海量用戶系統經常會碰到這樣的需求,要求根據用戶的某個唯一標識迅速查到該用戶的id。譬如根據mac地址或uuid或手機號的md5,去查詢到該用戶的id。

特點是數據量很大、千萬或億級別,key是比較長的字符串,如32位的md5或者uuid這種。

如果不加以處理,直接以key-value形式進行存儲,我們可以簡單測試一下,往redis裏插入1千萬條數據,1550000000 - 1559999999,形式就是key(md5(1550000000))→ value(1550000000)這種。

然後用info memory看一下內存佔用。

可以看到,這1千萬條數據,佔用了redis共計1.17G的內存。當數據量變成1個億時,實測大約佔用8個G。

同樣的一批數據,我們換一種存儲方式,先來看結果:

在我們利用zipList後,內存佔用爲123M,大約減少了85%的空間佔用,這是怎麼做到的呢?我們來從redis的底層存儲來剖析一下。

1 redis數據結構和編碼方式

2 redis如何存儲字符串

string是redis裏最常用的數據結構,redis的默認字符串和C語言的字符串不同,它是自己構建了一種名爲“簡單動態字符串SDS”的抽象類型。

具體到string的底層存儲,redis共用了三種方式,分別是int、embstr和raw。

譬如set k1 abc和set k2 123就會分別用embstr、int。當value的長度大於44(或39,不同版本不一樣)個字節時,會採用raw。

int是一種定長的結構,佔8個字節(注意,相當於java裏的long),只能用來存儲長整形。

embstr是動態擴容的,每次擴容1倍,超過1M時,每次只擴容1M。

raw用來存儲大於44個字節的字符串。

具體到我們的案例中,key是32個字節的字符串(embstr),value是一個長整形(int),所以如果能將32位的md5變成int,那麼在key的存儲上就可以直接減少3/4的內存佔用。

這是第一個優化點。

3 redis如何存儲Hash

從1.1的圖上我們可以看到Hash數據結構,在編碼方式上有兩種,1是hashTable,2是zipList。

hashTable大家很熟悉,和java裏的hashMap很像,都是數組+鏈表的方式。java裏hashmap爲了減少hash衝突,設置了負載因子爲0.75。同樣,redis的hash也有類似的擴容負載因子。細節不提,只需要留個印象,用hashTable編碼的話,則會花費至少大於存儲的數據25%的空間才能存下這些數據。它大概長這樣:

zipList,壓縮鏈表,它大概長這樣:

可以看到,zipList最大的特點就是,它根本不是hash結構,而是一個比較長的字符串,將key-value都按順序依次擺放到一個長長的字符串裏來存儲。如果要找某個key的話,就直接遍歷整個長字符串就好了。

所以很明顯,zipList要比hashTable佔用少的多的空間。但是會耗費更多的cpu來進行查詢。

那麼何時用hashTable、zipList呢?在redis.conf文件中可以找到:

就是當這個hash結構的內層field-value數量不超過512,並且value的字節數不超過64時,就使用zipList。

通過實測,value數量在512時,性能和單純的hashTable幾乎無差別,在value數量不超過1024時,性能僅有極小的降低,很多時候可以忽略掉。

而內存佔用,zipList可比hashTable降低了極多。

這是第二個優化點。

4 用zipList來代替key-value

通過上面的知識,我們得出了兩個結論。用int作爲key,會比string省很多空間。用hash中的zipList,會比key-value省巨大的空間。

那麼我們就來改造一下當初的1千萬個key-value。

第一步:

我們要將1千萬個鍵值對,放到N個bucket中,每個bucket是一個redis的hash數據結構,並且要讓每個bucket內不超過默認的512個元素(如果改了配置文件,如1024,則不能超過修改後的值),以避免hash將編碼方式從zipList變成hashTable。

1千萬 / 512 = 19531。由於將來要將所有的key進行哈希算法,來儘量均攤到所有bucket裏,但由於哈希函數的不確定性,未必能完全平均分配。所以我們要預留一些空間,譬如我分配25000個bucket,或30000個bucket。

第二步:

選用哈希算法,決定將key放到哪個bucket。這裏我們採用高效而且均衡的知名算法crc32,該哈希算法可以將一個字符串變成一個long型的數字,通過獲取這個md5型的key的crc32後,再對bucket的數量進行取餘,就可以確定該key要被放到哪個bucket中。

第三步:

通過第二步,我們確定了key即將存放在的redis裏hash結構的外層key,對於內層field,我們就選用另一個hash算法,以避免兩個完全不同的值,通過crc32(key) % COUNT後,發生field再次相同,產生hash衝突導致值被覆蓋的情況。內層field我們選用bkdr哈希算法(或直接選用Java的hashCode),該算法也會得到一個long整形的數字。value的存儲保持不變。

第四步:

裝入數據。原來的數據結構是key-value,0eac261f1c2d21e0bfdbd567bb270a68 →  1550000000。

現在的數據結構是hash,key爲14523,field是1927144074,value是1550000000。

通過實測,將1千萬數據存入25000個bucket後,整體hash比較均衡,每個bucket下大概有300多個field-value鍵值對。理論上只要不發生兩次hash算法後,均產生相同的值,那麼就可以完全依靠key-field來找到原始的value。這一點可以通過計算總量進行確認。實際上,在bucket數量較多時,且每個bucket下,value數量不是很多,發生連續碰撞概率極低,實測在存儲50億個手機號情況下,未發生明顯碰撞。

測試查詢速度:

在存儲完這1千萬個數據後,我們進行了查詢測試,採用key-value型和hash型,分別查詢100萬條數據,看一下對查詢速度的影響。

key-value耗時:10653、10790、11318、9900、11270、11029毫秒

hash-field耗時:12042、11349、11126、11355、11168毫秒。

可以看到,整體上採用hash存儲後,查詢100萬條耗時,也僅僅增加了500毫秒不到。對性能的影響極其微小。但內存佔用從1.1G變成了120M,帶來了接近90%的內存節省。

總結

大量的key-value,佔用過多的key,redis裏爲了處理hash碰撞,需要佔用更多的空間來存儲這些key-value數據。

如果key的長短不一,譬如有些40位,有些10位,因爲對齊問題,那麼將產生巨大的內存碎片,佔用空間情況更爲嚴重。所以,保持key的長度統一(譬如統一採用int型,定長8個字節),也會對內存佔用有幫助。

string型的md5,佔用了32個字節。而通過hash算法後,將32降到了8個字節的長整形,這顯著降低了key的空間佔用。

zipList比hashTable明顯減少了內存佔用,它的存儲非常緊湊,對查詢效率影響也很小。所以應善於利用zipList,避免在hash結構裏,存放超過512個field-value元素。

如果value是字符串、對象等,應儘量採用byte[]來存儲,同樣可以大幅降低內存佔用。譬如可以選用google的Snappy壓縮算法,將字符串轉爲byte[],非常高效,壓縮率也很高。

爲減少redis對字符串的預分配和擴容(每次翻倍),造成內存碎片,不應該使用append,setrange等。而是直接用set,替換原來的。

 

方案缺點:

hash結構不支持對單個field的超時設置。但可以通過代碼來控制刪除,對於那些不需要超時的長期存放的數據,則沒有這種顧慮。

存在較小的hash衝突概率,對於對數據要求極其精確的場合,不適合用這種壓縮方式。

基於上述方案,我改寫了springboot源碼的redisTemplate,提供了一個CompressRedisTemplate類,可以直接當成redisTemplate使用,它會自動將key-value轉爲hash進行存儲,以達到上述目的。

後續,我們會基於更極端一些的場景,如統計獨立訪客等,來看一下redis的不常見的數據結構,是如何將內存佔用由20G降低到5M。

如需代碼案例,請聯繫作者:[email protected]

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章