前言:當被問到請舉個能體現HASH算法的例子時,腦海中瞬間閃過無數個:what ! 哈希算法? 我只隱約記得hash函數、解決衝突的方法,從何蹦出來個hash算法呢?好吧,肯定是由於自己的才疏學淺、理解能力有限,看來有必要好好爲此做下學習筆記了。
--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
首先是百科釋義:
哈希算法將任意長度的二進制值映射爲較短的固定長度的二進制值,這個小的二進制值稱爲哈希值。哈希值是一段數據唯一且極其緊湊的數值表示形式。如果散列一段明文而且哪怕只更改該段落的一個字母,隨後的哈希都將產生不同的值。要找到散列爲同一個值的兩個不同的輸入,在計算上是不可能的,所以數據的哈希值可以檢驗數據的完整性。一般用於快速查找和加密算法。
Hash函數應用的主要對象是數組(比如,字符串),而其目標一般是一個int類型。以下我們都按照這種方式來說明。
一般的說,Hash函數可以簡單的劃分爲如下幾類:
1. 加法Hash;
2. 位運算Hash;
3. 乘法Hash;
4. 除法Hash;
5. 查表Hash;
6. 混合Hash;
下面詳細的介紹以上各種方式在實際中的運用。
一 加法Hash
所謂的加法Hash就是把輸入元素一個一個的加起來構成最後的結果。標準的加法Hash的構造如下:
static int additiveHash(String key, int prime)
{
int hash, i;
for (hash = key.length(), i = 0; i < key.length(); i++)
hash += key.charAt(i);
return (hash % prime);
}
這裏的prime是任意的質數,看得出,結果的值域爲[0,prime-1]。
二 位運算Hash
這類型Hash函數通過利用各種位運算(常見的是移位和異或)來充分的混合輸入元素。比如,標準的旋轉Hash的構造如下:
static int rotatingHash(String key, int prime)
{
int hash, i;
for (hash=key.length(), i=0; i<key.length(); ++i)
hash = (hash<<4)^(hash>>28)^key.charAt(i);
return (hash % prime);
}
先移位,然後再進行各種位運算是這種類型Hash函數的主要特點。比如,以上的那段計算hash的代碼還可以有如下幾種變形:
1. hash = (hash<<5)^(hash>>27)^key.charAt(i);
2. hash += key.charAt(i);
hash += (hash << 10);
hash ^= (hash >> 6);
3. if((i&1) == 0)
{
hash ^= (hash<<7) ^ key.charAt(i) ^ (hash>>3);
}
else
{
hash ^= ~((hash<<11) ^ key.charAt(i) ^ (hash >>5));
}
4. hash += (hash<<5) + key.charAt(i);
5. hash = key.charAt(i) + (hash<<6) + (hash>>16) – hash;
6. hash ^= ((hash<<5) + key.charAt(i) + (hash>>2));
三 乘法Hash
這種類型的Hash函數利用了乘法的不相關性(乘法的這種性質,最有名的莫過於平方取頭尾的隨機數生成算法,雖然這種算法效果並不好)。比如,
static int bernstein(String key)
{
int hash = 0;
int i;
for (i=0; i<key.length(); ++i) hash = 33*hash + key.charAt(i);
return hash;
}
jdk5.0裏面的String類的hashCode()方法也使用乘法Hash。不過,它使用的乘數是31。推薦的乘數還有:131, 1313, 13131, 131313等等。
使用這種方式的著名Hash函數還有:
// 32位FNV算法
int M_SHIFT = 0;
public int FNVHash(byte[] data)
{
int hash = (int)2166136261L;
for(byte b : data)
hash = (hash * 16777619) ^ b;
if (M_SHIFT == 0)
return hash;
return (hash ^ (hash >> M_SHIFT)) & M_MASK;
}
以及改進的FNV算法:
public static int FNVHash1(String data)
{
final int p = 16777619;
int hash = (int)2166136261L;
for(int i=0;i<data.length();i++)
hash = (hash ^ data.charAt(i)) * p;
hash += hash << 13;
hash ^= hash >> 7;
hash += hash << 3;
hash ^= hash >> 17;
hash += hash << 5;
return hash;
}
除了乘以一個固定的數,常見的還有乘以一個不斷改變的數,比如:
static int RSHash(String str)
{
int b = 378551;
int a = 63689;
int hash = 0;
for(int i = 0; i < str.length(); i++)
{
hash = hash * a + str.charAt(i);
a = a * b;
}
return (hash & 0x7FFFFFFF);
}
雖然Adler32算法的應用沒有CRC32廣泛,不過,它可能是乘法Hash裏面最有名的一個了。關於它的介紹,大家可以去看RFC 1950規範。
四 除法Hash
除法和乘法一樣,同樣具有表面上看起來的不相關性。不過,因爲除法太慢,這種方式幾乎找不到真正的應用。需要注意的是,我們在前面看到的hash的 結果除以一個prime的目的只是爲了保證結果的範圍。如果你不需要它限制一個範圍的話,可以使用如下的代碼替代”hash%prime”: hash = hash ^ (hash>>10) ^ (hash>>20)。
五 查表Hash
查表Hash最有名的例子莫過於CRC系列算法。雖然CRC系列算法本身並不是查表,但是,查表是它的一種最快的實現方式。查表Hash中有名的例子有:Universal Hashing和Zobrist Hashing。他們的表格都是隨機生成的。
六 混合Hash
混合Hash算法利用了以上各種方式。各種常見的Hash算法,比如MD5、Tiger都屬於這個範圍。它們一般很少在面向查找的Hash函數裏面使用。
七 對Hash算法的評價
http://www.burtleburtle.net/bob/hash/doobs.html 這個頁面提供了對幾種流行Hash算法的評價。我們對Hash函數的建議如下:
1. 字符串的Hash。最簡單可以使用基本的乘法Hash,當乘數爲33時,對於英文單詞有很好的散列效果(小於6個的小寫形式可以保證沒有衝突)。複雜一點可以使用FNV算法(及其改進形式),它對於比較長的字符串,在速度和效果上都不錯。
2. 長數組的Hash。可以使用http://burtleburtle.net/bob/c/lookup3.c這種算法,它一次運算多個字節,速度還算不錯。
八 後記
本文簡略的介紹了一番實際應用中的用於查找的Hash算法。Hash算法除了應用於這個方面以外,另外一個著名的應用是巨型字符串匹配(這時的 Hash算法叫做:rolling hash,因爲它必須可以滾動的計算)。設計一個真正好的Hash算法並不是一件容易的事情。做爲應用來說,選擇一個適合的算法是最重要的。
九 數組hash
inline int hashcode(const int *v)
{
int s = 0;
for(int i=0; i<k; i++)
s=((s<<2)+(v[i]>>4))^(v[i]<<10);
s = s % M;
s = s < 0 ? s + M : s;
return s;
}
注:雖說以上的hash能極大程度地避免衝突,但是衝突是在所難免的。所以無論用哪種hash函數,都要加上處理衝突的方法。
--------------------------------- 我是分割線 ----------------------------------------------
哈希思想可以用於處理有許多重複數據的大數據情況下,排序找出top k的數據。
Top K 算法詳解
問題描述
百度面試題:
搜索引擎會通過日誌文件把用戶每次檢索使用的所有檢索串都記錄下來,每個查詢串的長度爲1-255字節。
假設目前有一千萬個記錄(這些查詢串的重複度比較高,雖然總數是1千萬,但如果除去重複後,不超過3百萬個。一個查詢串的重複度越高,說明查詢它的用戶越多,也就是越熱門。),請你統計最熱門的10個查詢串,要求使用的內存不能超過1G。
必備知識:
什麼是哈希表?
哈希表(Hash table,也叫散列表),是根據關鍵碼值(Key value)而直接進行訪問的數據結構。也就是說,它通過把關鍵碼值映射到表中一個位置來訪問記錄,以加快查找的速度。這個映射函數叫做散列函數,存放記錄的數組叫做散列表。
哈希表的做法其實很簡單,就是把Key通過一個固定的算法函數既所謂的哈希函數轉換成一個整型數字,然後就將該數字對數組長度進行取餘,取餘結果就當作數組的下標,將value存儲在以該數字爲下標的數組空間裏。
而當使用哈希表進行查詢的時候,就是再次使用哈希函數將key轉換爲對應的數組下標,並定位到該空間獲取value,如此一來,就可以充分利用到數組的定位性能進行數據定位(文章第二、三部分,會針對Hash表詳細闡述)。
問題解析:
要統計最熱門查詢,首先就是要統計每個Query出現的次數,然後根據統計結果,找出Top 10。所以我們可以基於這個思路分兩步來設計該算法。
即,此問題的解決分爲以下倆個步驟:
第一步:Query統計
Query統計有以下倆個方法,可供選擇:
1、直接排序法
首先我們最先想到的的算法就是排序了,首先對這個日誌裏面的所有Query都進行排序,然後再遍歷排好序的Query,統計每個Query出現的次數了。
但是題目中有明確要求,那就是內存不能超過1G,一千萬條記錄,每條記錄是225Byte,很顯然要佔據2.55G內存,這個條件就不滿足要求了。
讓我們回憶一下數據結構課程上的內容,當數據量比較大而且內存無法裝下的時候,我們可以採用外排序的方法來進行排序,這裏我們可以採用歸併排序,因爲歸併排序有一個比較好的時間複雜度O(NlgN)。
排完序之後我們再對已經有序的Query文件進行遍歷,統計每個Query出現的次數,再次寫入文件中。
綜合分析一下,排序的時間複雜度是O(NlgN),而遍歷的時間複雜度是O(N),因此該算法的總體時間複雜度就是O(N+NlgN)=O(NlgN)。
2、Hash Table法
在第1個方法中,我們採用了排序的辦法來統計每個Query出現的次數,時間複雜度是NlgN,那麼能不能有更好的方法來存儲,而時間複雜度更低呢?
題目中說明了,雖然有一千萬個Query,但是由於重複度比較高,因此事實上只有300萬的Query,每個Query255Byte,因此我們可以考慮把他們都放進內存中去,而現在只是需要一個合適的數據結構,在這裏,Hash Table絕對是我們優先的選擇,因爲Hash Table的查詢速度非常的快,幾乎是O(1)的時間複雜度。
那麼,我們的算法就有了:維護一個Key爲Query字串,Value爲該Query出現次數的HashTable,每次讀取一個Query,如果該字串不在Table中,那麼加入該字串,並且將Value值設爲1;如果該字串在Table中,那麼將該字串的計數加一即可。最終我們在O(N)的時間複雜度內完成了對該海量數據的處理。
本方法相比算法1:在時間複雜度上提高了一個數量級,爲O(N),但不僅僅是時間複雜度上的優化,該方法只需要IO數據文件一次,而算法1的IO次數較多的,因此該算法2比算法1在工程上有更好的可操作性。
第二步:找出Top 10
算法一:普通排序
我想對於排序算法大家都已經不陌生了,這裏不在贅述,我們要注意的是排序算法的時間複雜度是NlgN,在本題目中,三百萬條記錄,用1G內存是可以存下的。
算法二:部分排序
題目要求是求出Top 10,因此我們沒有必要對所有的Query都進行排序,我們只需要維護一個10個大小的數組,初始化放入10個Query,按照每個Query的統計次數由大到小排序,然後遍歷這300萬條記錄,每讀一條記錄就和數組最後一個Query對比,如果小於這個Query,那麼繼續遍歷,否則,將數組中最後一條數據淘汰,加入當前的Query。最後當所有的數據都遍歷完畢之後,那麼這個數組中的10個Query便是我們要找的Top10了。
不難分析出,這樣,算法的最壞時間複雜度是N*K, 其中K是指top多少。
算法三:堆
在算法二中,我們已經將時間複雜度由NlogN優化到NK,不得不說這是一個比較大的改進了,可是有沒有更好的辦法呢?
分析一下,在算法二中,每次比較完成之後,需要的操作複雜度都是K,因爲要把元素插入到一個線性表之中,而且採用的是順序比較。這裏我們注意一下,該數組是有序的,一次我們每次查找的時候可以採用二分的方法查找,這樣操作的複雜度就降到了logK,可是,隨之而來的問題就是數據移動,因爲移動數據次數增多了。不過,這個算法還是比算法二有了改進。
基於以上的分析,我們想想,有沒有一種既能快速查找,又能快速移動元素的數據結構呢?回答是肯定的,那就是堆。
藉助堆結構,我們可以在log量級的時間內查找和調整/移動。因此到這裏,我們的算法可以改進爲這樣,維護一個K(該題目中是10)大小的小根堆,然後遍歷300萬的Query,分別和根元素進行對比。
思想與上述算法二一致,只是算法在算法三,我們採用了最小堆這種數據結構代替數組,把查找目標元素的時間複雜度有O(K)降到了O(logK)。
那麼這樣,採用堆數據結構,算法三,最終的時間複雜度就降到了N‘logK,和算法二相比,又有了比較大的改進。
至此,算法就完全結束了,經過上述第一步、先用Hash表統計每個Query出現的次數,O(N);然後第二步、採用堆數據結構找出Top 10,N*O(logK)。所以,我們最終的時間複雜度是:O(N) + N'*O(logK)。(N爲1000萬,N’爲300萬)。
出處1:http://zhaohaolin.iteye.com/blog/1874420
出處2:http://wenku.baidu.com/view/c8ca9533b90d6c85ec3ac6db.html