數據結構與算法分析(九)--- 哈希算法能用來幹啥?

一、什麼是哈希算法

前篇博客介紹了“散列表”、“散列函數”,這裏又談到“哈希算法”,你是不是有點一頭霧水?實際上,不管是“散列”還是“哈希”,這都是中文翻譯的差別,英文其實就是“Hash”。所以,我們常聽到有人把“散列表”叫作“哈希表”“Hash 表”,把“哈希算法”叫作“Hash 算法”或者“散列算法”。那到底什麼是哈希算法呢?

哈希算法的定義和原理非常簡單,基本上一句話就可以概括了。將任意長度的二進制值串映射爲固定長度的二進制值串,這個映射的規則就是哈希算法,而通過原始數據映射之後得到的二進制值串就是哈希值。但是,要想設計一個優秀的哈希算法並不容易,根據經驗,需要滿足以下幾點要求:

  • 從哈希值不能反向推導出原始數據(所以哈希算法也叫單向哈希算法);
  • 對輸入數據非常敏感,哪怕原始數據只修改了一個 Bit,最後得到的哈希值也大不相同;
  • 散列衝突的概率要很小,對於不同的原始數據,哈希值相同的概率非常小;
  • 哈希算法的執行效率要儘量高效,針對較長的文本,也能快速地計算出哈希值。

這些定義和要求都比較理論,可能還是不好理解,我拿 MD5 這種哈希算法來具體說明一下。我分別對下面幾個文本計算 MD5 哈希值,得到兩串看起來毫無規律的字符串(MD5 的哈希值是 128 位的 Bit 長度,爲了方便表示,我把它們轉化成了 16 進制編碼)。可以看出來,無論要哈希的文本有多長、多短,通過 MD5 哈希之後,得到的哈希值的長度都是相同的,儘管只有一個符號之差,得到的哈希值也是完全不同的,而且得到的哈希值看起來像一堆隨機數,完全沒有規律。

MD5("hash") 			= 0800FC577294C34E0B28AD2839435945
MD5("hash algorithm") 	= 45600A24D4BC5F8FDFB3CDEB43DD531D
MD5("hash algorithm.")	= AD923778FBA7FF565B1F312E0D7658D8

通過哈希算法得到的哈希值,很難反向推導出原始數據。比如上面的例子中,我們就很難通過哈希值“0800FC577294C34E0B28AD2839435945”反推出對應的文本“hash”。

哈希算法要處理的文本可能是各種各樣的,對於非常長的文本,如果哈希算法的計算時間很長,那就只能停留在理論研究的層面,很難應用到實際的軟件開發中。比如,我們把一篇包含 4000 多個漢字的文章,用 MD5 計算哈希值,用不了 1ms 的時間。

如果想了解更安全的散列算法SHA256,可以參考博客:區塊鏈中的現代密碼學中的Hash算法部分。

二、哈希算法能用來幹啥

哈希算法的應用非常非常多,這裏選了最常見的七個,分別是安全加密、唯一標識、數據校驗、散列函數、負載均衡、數據分片、分佈式存儲。

2.1 安全加密

說到哈希算法的應用,最先想到的應該就是安全加密。最常用於加密的哈希算法是 MD5(MD5 Message-Digest Algorithm,MD5 消息摘要算法)和 SHA(Secure Hash Algorithm,安全散列算法)。

除了這兩個之外,當然還有很多其他加密算法,比如 DES(Data Encryption Standard,數據加密標準)、AES(Advanced Encryption Standard,高級加密標準)。

前面介紹的哈希算法四點要求,對用於加密的哈希算法來說,有兩點格外重要。第一點是很難根據哈希值反向推導出原始數據,第二點是散列衝突的概率要很小。

第一點很好理解,加密的目的就是防止原始數據泄露,所以很難通過哈希值反向推導原始數據,這是一個最基本的要求。所以我着重講一下第二點。實際上,不管是什麼哈希算法,我們只能儘量減少碰撞衝突的概率,理論上是沒辦法做到完全不衝突的。爲什麼這麼說呢?

這裏就基於組合數學中一個非常基礎的理論,鴿巢原理(也叫抽屜原理)。這個原理本身很簡單,它是說,如果有 10 個鴿巢,有 11 只鴿子,那肯定有 1 個鴿巢中的鴿子數量多於 1 個,換句話說就是,肯定有 2 只鴿子在 1 個鴿巢內。有了鴿巢原理的鋪墊之後,我們再來看,爲什麼哈希算法無法做到零衝突?

我們知道,哈希算法產生的哈希值的長度是固定且有限的。比如前面舉的 MD5 的例子,哈希值是固定的 128 位二進制串,能表示的數據是有限的,最多能表示 2128 個數據,而我們要哈希的數據是無窮的。基於鴿巢原理,如果我們對 2128+1 個數據求哈希值,就必然會存在哈希值相同的情況。這裏你應該能想到,一般情況下,哈希值越長的哈希算法,散列衝突的概率越低。

爲了讓你能有個更加直觀的感受,我找了兩段字符串放在這裏。這兩段字符串經過 MD5 哈希算法加密之後,產生的哈希值是相同的。
MD5相同即出現散列衝突的字符串
不過,即便哈希算法存在散列衝突的情況,但是因爲哈希值的範圍很大,衝突的概率極低,所以相對來說還是很難破解的。像 MD5,有 2128 個不同的哈希值,這個數據已經是一個天文數字了,所以散列衝突的概率要小於 1/2128

如果我們拿到一個 MD5 哈希值,希望通過毫無規律的窮舉的方法,找到跟這個 MD5 值相同的另一個數據,那耗費的時間應該是個天文數字。所以,即便哈希算法存在衝突,但是在有限的時間和資源下,哈希算法還是被很難破解的。

除此之外,沒有絕對安全的加密。越複雜、越難破解的加密算法,需要的計算時間也越長。比如 SHA-256 比 SHA-1 要更復雜、更安全,相應的計算時間就會比較長。密碼學界也一直致力於找到一種快速並且很難被破解的哈希算法。我們在實際的開發過程中,也需要權衡破解難度和計算時間,來決定究竟使用哪種加密算法。

2.2 唯一標識

先來舉一個例子。如果要在海量的圖庫中,搜索一張圖是否存在,我們不能單純地用圖片的元信息(比如圖片名稱)來比對,因爲有可能存在名稱相同但圖片內容不同,或者名稱不同圖片內容相同的情況。那我們該如何搜索呢?

我們知道,任何文件在計算中都可以表示成二進制碼串,所以,比較笨的辦法就是,拿要查找的圖片的二進制碼串與圖庫中所有圖片的二進制碼串一一比對。如果相同,則說明圖片在圖庫中存在。但是,每個圖片小則幾十 KB、大則幾 MB,轉化成二進制是一個非常長的串,比對起來非常耗時。有沒有比較快的方法呢?

我們可以給每一個圖片取一個唯一標識,或者說信息摘要。比如,我們可以從圖片的二進制碼串開頭取 100 個字節,從中間取 100 個字節,從最後再取 100 個字節,然後將這 300 個字節放到一塊,通過哈希算法(比如 MD5),得到一個哈希字符串,用它作爲圖片的唯一標識。通過這個唯一標識來判定圖片是否在圖庫中,這樣就可以減少很多工作量。

如果還想繼續提高效率,我們可以把每個圖片的唯一標識,和相應的圖片文件在圖庫中的路徑信息,都存儲在散列表中。當要查看某個圖片是不是在圖庫中的時候,我們先通過哈希算法對這個圖片取唯一標識,然後在散列表中查找是否存在這個唯一標識。

如果不存在,那就說明這個圖片不在圖庫中;如果存在,我們再通過散列表中存儲的文件路徑,獲取到這個已經存在的圖片,跟現在要插入的圖片做全量的比對,看是否完全一樣。如果一樣,就說明已經存在;如果不一樣,說明兩張圖片儘管唯一標識相同,但是並不是相同的圖片。

2.3 數據校驗

電驢這樣的 BT 下載軟件你肯定用過吧?我們知道,BT 下載的原理是基於 P2P 協議的。我們從多個機器上並行下載一個 2GB 的電影,這個電影文件可能會被分割成很多文件塊(比如可以分成 100 塊,每塊大約 20MB)。等所有的文件塊都下載完成之後,再組裝成一個完整的電影文件就行了。

我們知道,網絡傳輸是不安全的,下載的文件塊有可能是被宿主機器惡意修改過的,又或者下載過程中出現了錯誤,所以下載的文件塊可能不是完整的。如果我們沒有能力檢測這種惡意修改或者文件下載出錯,就會導致最終合併後的電影無法觀看,甚至導致電腦中毒。現在的問題是,如何來校驗文件塊的安全、正確、完整呢?

具體的 BT 協議很複雜,校驗方法也有很多,我來說其中的一種思路。我們通過哈希算法,對 100 個文件塊分別取哈希值,並且保存在種子文件中。我們在前面講過,哈希算法有一個特點,對數據很敏感。只要文件塊的內容有一丁點兒的改變,最後計算出的哈希值就會完全不同。所以,當文件塊下載完成之後,我們可以通過相同的哈希算法,對下載好的文件塊逐一求哈希值,然後跟種子文件中保存的哈希值比對。如果不同,說明這個文件塊不完整或者被篡改了,需要再重新從其他宿主機器上下載這個文件塊。

2.4 散列函數

散列函數是設計一個散列表的關鍵。它直接決定了散列衝突的概率和散列表的性能。不過,相比哈希算法的其他應用,散列函數對於散列算法衝突的要求要低很多。即便出現個別散列衝突,只要不是過於嚴重,我們都可以通過開放尋址法或者鏈表法解決。

不僅如此,散列函數對於散列算法計算得到的值,是否能反向解密也並不關心。散列函數中用到的散列算法,更加關注散列後的值是否能平均分佈,也就是,一組數據是否能均勻地散列在各個槽中。除此之外,散列函數執行的快慢,也會影響散列表的性能,所以,散列函數用的散列算法一般都比較簡單,比較追求效率。

2.5 負載均衡

負載均衡算法有很多,比如輪詢、隨機、加權輪詢等。那如何才能實現一個會話粘滯(session sticky)的負載均衡算法呢?也就是說,我們需要在同一個客戶端上,在一次會話中的所有請求都路由到同一個服務器上。

最直接的方法就是,維護一張映射關係表,這張表的內容是客戶端 IP 地址或者會話 ID 與服務器編號的映射關係。客戶端發出的每次請求,都要先在映射表中查找應該路由到的服務器編號,然後再請求編號對應的服務器。這種方法簡單直觀,但也有幾個弊端:

  • 如果客戶端很多,映射表可能會很大,比較浪費內存空間;
  • 客戶端下線、上線,服務器擴容、縮容都會導致映射失效,這樣維護映射表的成本就會很大;

如果藉助哈希算法,這些問題都可以非常完美地解決。我們可以通過哈希算法,對客戶端 IP 地址或者會話 ID 計算哈希值,將取得的哈希值與服務器列表的大小進行取模運算,最終得到的值就是應該被路由到的服務器編號。 這樣,我們就可以把同一個 IP 過來的所有請求,都路由到同一個後端服務器上。

2.6 數據分片

哈希算法還可以用於數據的分片。下面舉兩個例子來說明:

  • 如何統計“搜索關鍵詞”出現的次數?

假如我們有 1T 的日誌文件,這裏面記錄了用戶的搜索關鍵詞,我們想要快速統計出每個關鍵詞被搜索的次數,該怎麼做呢?

我們來分析一下。這個問題有兩個難點,第一個是搜索日誌很大,沒辦法放到一臺機器的內存中。第二個難點是,如果只用一臺機器來處理這麼巨大的數據,處理時間會很長。

針對這兩個難點,我們可以先對數據進行分片,然後採用多臺機器處理的方法,來提高處理速度。具體的思路是這樣的:爲了提高處理的速度,我們用 n 臺機器並行處理。我們從搜索記錄的日誌文件中,依次讀出每個搜索關鍵詞,並且通過哈希函數計算哈希值,然後再跟 n 取模,最終得到的值,就是應該被分配到的機器編號。

這樣,哈希值相同的搜索關鍵詞就被分配到了同一個機器上。也就是說,同一個搜索關鍵詞會被分配到同一個機器上。每個機器會分別計算關鍵詞出現的次數,最後合併起來就是最終的結果。實際上,這裏的處理過程也是 MapReduce 的基本設計思想。

  • 如何快速判斷圖片是否在圖庫中?

前面已經舉過這個例子,當時介紹了一種方法,即給每個圖片取唯一標識(或者信息摘要),然後構建散列表。

假設現在我們的圖庫中有 1 億張圖片,很顯然,在單臺機器上構建散列表是行不通的。因爲單臺機器的內存有限,而 1 億張圖片構建散列表顯然遠遠超過了單臺機器的內存上限。

我們同樣可以對數據進行分片,然後採用多機處理。我們準備 n 臺機器,讓每臺機器只維護某一部分圖片對應的散列表。我們每次從圖庫中讀取一個圖片,計算唯一標識,然後與機器個數 n 求餘取模,得到的值就對應要分配的機器編號,然後將這個圖片的唯一標識和圖片路徑發往對應的機器構建散列表。

當我們要判斷一個圖片是否在圖庫中的時候,我們通過同樣的哈希算法,計算這個圖片的唯一標識,然後與機器個數 n 求餘取模。假設得到的值是 k,那就去編號 k 的機器構建的散列表中查找。

現在,我們來估算一下,給這 1 億張圖片構建散列表大約需要多少臺機器。散列表中每個數據單元包含兩個信息,哈希值和圖片文件的路徑。假設我們通過 MD5 來計算哈希值,那長度就是 128 比特,也就是 16 字節。文件路徑長度的上限是 256 字節,我們可以假設平均長度是 128 字節。如果我們用鏈表法來解決衝突,那還需要存儲指針,指針只佔用 8 字節。所以,散列表中每個數據單元就佔用 152 字節(這裏只是估算,並不準確)。

假設一臺機器的內存大小爲 8GB,散列表的裝載因子爲 0.75,那一臺機器可以給大約 4000 萬(4GB*0.75/152)張圖片構建散列表。所以,如果要對 1 億張圖片構建索引,需要大約3臺機器。在工程中,這種估算還是很重要的,能讓我們事先對需要投入的資源、資金有個大概的瞭解,能更好地評估解決方案的可行性。

實際上,針對這種海量數據的處理問題,我們都可以採用多機分佈式處理。藉助這種分片的思路,可以突破單機內存、CPU 等資源的限制。

2.7 分佈式存儲

現在互聯網面對的都是海量的數據、海量的用戶。我們爲了提高數據的讀取、寫入能力,一般都採用分佈式的方式來存儲數據,比如分佈式緩存。我們有海量的數據需要緩存,所以一個緩存機器肯定是不夠的。於是,我們就需要將數據分佈在多臺機器上。

該如何決定將哪個數據放到哪個機器上呢?我們可以借用前面數據分片的思想,即通過哈希算法對數據取哈希值,然後對機器個數取模,這個最終值就是應該存儲的緩存機器編號。

但是,如果數據增多,原來的 10 個機器已經無法承受了,我們就需要擴容了,比如擴到 11 個機器,這時候麻煩就來了。因爲,這裏並不是簡單地加個機器就可以了。

原來的數據是通過與 10 來取模的。比如 13 這個數據,存儲在編號爲 3 這臺機器上。但是新加了一臺機器中,我們對數據按照 11 取模,原來 13 這個數據就被分配到 2 號這臺機器上了。
再散列擴容
因此,所有的數據都要重新計算哈希值,然後重新搬移到正確的機器上。這樣就相當於,緩存中的數據一下子就都失效了。所有的數據請求都會穿透緩存,直接去請求數據庫。這樣就可能發生雪崩效應,壓垮數據庫。

所以,我們需要一種方法,使得在新加入一個機器後,並不需要做大量的數據搬移。這時候,一致性哈希算法就要登場了。

假設我們有 k 個機器,數據的哈希值的範圍是 [0, MAX]。我們將整個範圍劃分成 m 個小區間(m 遠大於 k),每個機器負責 m/k 個小區間。當有新機器加入的時候,我們就將某幾個小區間的數據,從原來的機器中搬移到新的機器中。這樣,既不用全部重新哈希、搬移數據,也保持了各個機器上數據數量的均衡。一致性哈希算法的基本思想就是這麼簡單。除此之外,它還會藉助一個虛擬的環和虛擬結點,更加優美地實現出來。

除了我們上面講到的分佈式緩存,實際上,一致性哈希算法的應用非常廣泛,在很多分佈式存儲系統中,都可以見到一致性哈希算法的影子。

更多文章:

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章