Hash表的算法與應用

一、什麼是Hash

        hashing定義了一種將字符組成的字符串轉換爲固定長度(一般是更短長度)的數值或索引值的方法,稱爲散列法,也叫哈希法。由於通過更短的哈希值比用原始值進行數據庫搜索更快,這種方法一般用來在數據庫中建立索引並進行搜索,同時還用在各種解密算法中。
        數組的特點是:尋址容易,插入和刪除困難;而鏈表的特點是:尋址困難,插入和刪除容易。那麼我們能不能綜合兩者的特性,做出一種尋址容易,插入刪除也容易的數據結構?答案是肯定的,這就是我們要提起的哈希表。
        哈希表有多種不同的實現方法。

二、散列函數的構造方法

(1)直接定址法:比如:在一個0~100歲的年齡統計表,我們就可以把年齡作爲地址。
(2)除法散列法:例如:index = value % 16
 
(3)平方取中法 (平方散列法)
        求index是非常頻繁的操作,而乘法的運算要比除法來得省時(對現在的CPU來說,估計我們感覺不出來),所以我們考慮把除法換成乘法和一個位移操作。
        具體方法:先通過求關鍵字的平方值擴大相近數的差別,然後根據表長度取中間的幾位數作爲散列函數值。又因爲一個乘積的中間幾位數和乘數的每一位都相關,所以由此產生的散列地址較爲均勻。
        例如:index = (value * value) >> 28 (右移,除以2^28。記法:左移變大,是乘。右移變小,是除。)如果數值分配比較均勻的話這種方法能得到不錯的結果。也許你還有個問題,value如果很大,value * value不會溢出嗎?答案是會的,但我們這個乘法不關心溢出,因爲我們根本不是爲了獲取相乘結果,而是爲了獲取index。

(4)除留餘數法
       具體方法:取關鍵字被某個不大於哈希表表長m的數p除後所得餘數爲哈希地址。該方法的關鍵是選取m。選取的m應使得散列函數值儘可能與關鍵字的各位相關。m最好爲素數
(5)隨機數法
       選擇一個隨機函數,取關鍵字的隨機函數值爲它的散列地址,即 h(key)=random(key) ,其中random爲僞隨機函數,但要保證函數值是在0到m-1之間。
(6)斐波那契(Fibonacci)散列法
       平方散列法的缺點是顯而易見的,所以我們能不能找出一個理想的乘數,而不是拿value本身當作乘數呢?答案是肯定的。
       對於16位整數而言,這個乘數是405032;
       對於32位整數而言,這個乘數是26544357693;
      
對於64位整數而言,這個乘數是11400714819323198485
       這幾個“理想乘數”是如何得出來的呢?這跟一個法則有關,叫黃金分割法則,而描述黃金分割法則的最經典表達式無疑就是著名的斐波那契數列,即如此形式的序列:0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987, 1597, 2584, 4181, 6765, 10946,…。另外,斐波那契數列的值和太陽系八大行星的軌道半徑的比例出奇吻合。

三、處理衝突的方法

    處理衝突——假設哈希表的地址集爲0~n-1,衝突是指由關鍵字得到的哈希 地址爲j(0<=j<=n-1)的位置上已存有記錄,則“處理衝突”就是爲該關鍵字的記錄找到另一個“空”的哈希地址.
    在處理衝突過程中可能得到一個地址序列Hi (i=1,2,…,k),即在處理哈希地址的衝突時,若得到的另一個哈希地址H1仍然發生衝突,則再求下一個地址 H2,若H2仍然衝突,再求得H3.依次類推,直到Hk不發生衝突爲止,則Hk爲記錄在表中的地址.
    常用的處理衝突的方法 :(1)開放定址法    (2)拉鍊法      (3)建立公共溢出區法

    1、開放定址法

    ①線性探查法(Linear Probing)

    該方法的基本思想是:將散列表T[0..m-1]看成是一個循環向量,若初始探查的地址爲d(即h(key)=d),則最長的探查序列爲:d,d+l,d+2,…,m-1,0,1,…,d-1 .即:探查時從地址d開始,首先探查T[d],然後依次探查T[d+1],…,直到T[m-1],此後又循環到T[0],T[1],…,直到探查到T[d-1]爲止。探查過程終止於三種情況:
    (1) 若當前探查的單元爲空,則表示查找失敗(若是插入則將key寫入其中);
    (2) 若當前探查的單元中含有key,則查找成功,但對於插入意味着失敗;
    (3) 若探查到T[d-1]時仍未發現空單元也未找到key,則無論是查找還是插入均意味着失敗(此時表滿)。
利用開放地址法的一般形式,線性探查法的探查序列爲:
    hi = (h(key)+i)%m 0≤i≤m-1 // 即d i =i
    hi = (h(key)+di) mod m i=1,2,...,k(k<=m-1) 其中m爲表長,di爲增量序列
    如果di值可能爲1,2,3,...m-1,稱線性探測再散列;
    如果di取值可能爲1,-1,2,-2,4,-4,9,-9,16,-16,...k*k,-k*k(k<=m/2) 稱二次探測再散列。;
    如果di取值可能爲僞隨機數列。稱僞隨機探測再散列。
開放地址法堆裝填因子的要求 :開放定址法要求散列表的裝填因子α≤l,實用中取α爲0.5到0.9之間的某個值爲宜。

    ②二次探查法(quadratic probing)

二次探查法的探查序列是: hi = (h(key)+i*i)%m 0≤i≤m-1 // 即di=i^2 
即探查序列爲d=h(key),d+1^2,d+2^2,…,等。 該方法的缺陷是不易探查到整個散列空間。

    ③雙重散列法(double hashing)

該方法是開放定址法中最好的方法之一,它的探查序列是: hi = (h(key) + i*h1(key))%m 0≤i≤m-1 // 即di=i*h1(key)
即探查序列爲: d=h(key),(d+h1(key))%m,(d+2h1(key))%m,…,等。 該方法使用了兩個散列函數h(key)和h1(key),故也稱爲雙散列函數探查法。

    2、拉鍊法

    拉鍊法解決衝突的做法是:將所有關鍵字爲同義詞的結點鏈接在同一個單鏈表中。若選定的散列表長度爲m,則可將散列表定義爲一個由m個頭指針組成的指針數組t[0..m-1]。凡是散列地址爲i的結點,均插入到以t[i]爲頭指針的單鏈表中。t中各分量的初值均應爲空指針。在拉鍊法中,裝填因子α可以大於1,但一般均取α≤1。

    3、建立一個公共溢出區

具體做法:假設哈希函數的值域爲[0,m-1],則設向量hashtable[0..m-1]爲基本表,另外設立存儲空間向量overtable[0..v]用以存儲發生衝突的記錄。

四、性能分析

    插入和刪除的時間均取決於查找,故下面只分析查找操作的時間性能。
    雖然散列表在關鍵字和存儲位置之間建立了對應關係,理想情況是無須關鍵字的比較就可找到待查關鍵字。但是由於衝突的存在,散列表的查找過程仍是一個和關鍵字比較的過程,不過散列表的平均查找長度比順序查找、二分查找等完全依賴於關鍵字比較的查找要小得多。
(1)查找成功的asl
    散列表上的查找優於順序查找和二分查找。
(2) 查找不成功的asl
    對於不成功的查找,順序查找和二分查找所需進行的關鍵字比較次數僅取決於表長,而散列查找所需進行的關鍵字比較次數和待查結點有關。因此,在等概率情況下,也可將散列表在查找不成功時的平均查找長度,定義爲查找不成功時對關鍵字需要執行的平均比較次數。
    注意:
①由同一個散列函數、不同的解決衝突方法構造的散列表,其平均查找長度是不相同的。
②散列表的平均查找長度不是結點個數n的函數,而是裝填因子α的函數。因此在設計散列表時可選擇α以控制散列表的平均查找長度。
③ α的取值
    α越小,產生衝突的機會就小,但α過小,空間的浪費就過多。只要α選擇合適,散列表上的平均查找長度就是一個常數,即散列表上查找的平均時間爲o(1)。
④ 散列法與其他查找方法的區別
    除散列法外,其他查找方法有共同特徵爲:均是建立在比較關鍵字的基礎上。其中順序查找是對無序集合的查找,每次關鍵字的比較結果爲"="或"!="兩種可能,其平均時間爲o(n);其餘的查找均是對有序集合的查找,每次關鍵字的比較有"="、"<"和">"三種可能,且每次比較後均能縮小下次的查找範圍,故查找速度更快,其平均時間爲o(lgn)。而散列法是根據關鍵字直接求出地址的查找方法,其查找的期望時間爲o(1)。

五、最快的Hash表算法

    接下來,咱們來具體分析一下一個最快的Hasb表算法。
    我們由一個簡單的問題逐步入手:有一個龐大的字符串數組,然後給你一個單獨的字符串,讓你從這個數組中查找是否有這個字符串並找到它,你會怎麼做?有一個方法最簡單,老老實實從頭查到尾,一個一個比較,直到找到爲止,我想只要學過程序設計的人都能把這樣一個程序作出來,但要是有程序員把這樣的程序交給用戶,我只能用無語來評價,或許它真的能工作,但...也只能如此了。
    最合適的算法自然是使用HashTable(哈希表),先介紹介紹其中的基本知識,所謂Hash,一般是一個整數,通過某種算法,可以把一個字符串"壓縮" 成一個整數。當然,無論如何,一個32位整數是無法對應回一個字符串的,但在程序中,兩個字符串計算出的Hash值相等的可能非常小,下面看看在MPQ中的Hash算法:
    函數一、以下的函數生成一個長度爲0x500(合10進制數:1280)的cryptTable[0x500]

void prepareCryptTable()
{
    unsigned long seed = 0x00100001, index1 = 0, index2 = 0, i;

    for( index1 = 0; index1 < 0x100; index1++ )
    {
        for( index2 = index1, i = 0; i < 5; i++, index2 += 0x100 )
        {
            unsigned long temp1, temp2;

            seed = (seed * 125 + 3) % 0x2AAAAB;
            temp1 = (seed & 0xFFFF) << 0x10;

            seed = (seed * 125 + 3) % 0x2AAAAB;
            temp2 = (seed & 0xFFFF);

            cryptTable[index2] = ( temp1 | temp2 );
        }
    }
}

    函數二、以下函數計算lpszFileName 字符串的hash值,其中dwHashType 爲hash的類型,在下面的函數三、GetHashTablePos函數中調用此函數二,其可以取的值爲0、1、2;該函數返回lpszFileName 字符串的hash值:

unsigned long HashString( char *lpszFileName, unsigned long dwHashType )
{
    unsigned char *key = (unsigned char *)lpszFileName;
    unsigned long seed1 = 0x7FED7FED;
    unsigned long seed2 = 0xEEEEEEEE;
    int ch;

    while( *key != 0 )
    {
        ch = toupper(*key++);

        seed1 = cryptTable[(dwHashType << 8) + ch] ^ (seed1 + seed2);
        seed2 = ch + seed1 + seed2 + (seed2 << 5) + 3;
    }
    return seed1;
}

    Blizzard的這個算法是非常高效的,被稱爲"One-Way Hash"( A one-way hash is a an algorithm that is constructed in such a way that deriving the original string (set of strings, actually) is virtually impossible)。舉個例子,字符串"unitneutralacritter.grp"通過這個算法得到的結果是0xA26067F3。
 是不是把第一個算法改進一下,改成逐個比較字符串的Hash值就可以了呢,答案是,遠遠不夠,要想得到最快的算法,就不能進行逐個的比較,通常是構造一個哈希表(Hash Table)來解決問題,哈希表是一個大數組,這個數組的容量根據程序的要求來定義,例如1024,每一個Hash值通過取模運算 (mod) 對應到數組中的一個位置,這樣,只要比較這個字符串的哈希值對應的位置有沒有被佔用,就可以得到最後的結果了,想想這是什麼速度?是的,是最快的O(1),現在仔細看看這個算法吧:

typedef struct
{
    int nHashA;
    int nHashB;
    char bExists;
    ......
} SOMESTRUCTRUE;

一種可能的結構體定義?
    函數三、下述函數爲在Hash表中查找是否存在目標字符串,有則返回要查找字符串的Hash值,無則,return -1.

//lpszString要在Hash表中查找的字符串,lpTable爲存儲字符串Hash值的Hash表。
int GetHashTablePos( char *lpszString, SOMESTRUCTURE *lpTable )
{
    int nHash = HashString(lpszString); //調用上述函數二,返回要查找字符串lpszString的Hash值。
    int nHashPos = nHash % nTableSize;

    if ( lpTable[nHashPos].bExists && !strcmp( lpTable[nHashPos].pString, lpszString ) )
    { //如果找到的Hash值在表中存在,且要查找的字符串與表中對應位置的字符串相同,
        return nHashPos; //則返回上述調用函數二後,找到的Hash值
    }
    else
    {
        return -1;
    }
}

    看到此,我想大家都在想一個很嚴重的問題:“如果兩個字符串在哈希表中對應的位置相同怎麼辦?”,畢竟一個數組容量是有限的,這種可能性很大。解決該問題的方法很多,我首先想到的就是用“鏈表”,感謝大學裏學的數據結構教會了這個百試百靈的法寶,我遇到的很多算法都可以轉化成鏈表來解決,只要在哈希表的每個入口掛一個鏈表,保存所有對應的字符串就OK了。事情到此似乎有了完美的結局,如果是把問題獨自交給我解決,此時我可能就要開始定義數據結構然後寫代碼了。
    然而Blizzard的程序員使用的方法則是更精妙的方法。基本原理就是:他們在哈希表中不是用一個哈希值而是用三個哈希值來校驗字符串。
    MPQ使用文件名哈希表來跟蹤內部的所有文件。但是這個表的格式與正常的哈希表有一些不同。首先,它沒有使用哈希作爲下標,把實際的文件名存儲在表中用於驗證,實際上它根本就沒有存儲文件名。而是使用了3種不同的哈希:一個用於哈希表的下標,兩個用於驗證。這兩個驗證哈希替代了實際文件名。
    當然了,這樣仍然會出現2個不同的文件名哈希到3個同樣的哈希。但是這種情況發生的概率平均是:1:18889465931478580854784,這個概率對於任何人來說應該都是足夠小的。現在再回到數據結構上,Blizzard使用的哈希表沒有使用鏈表,而採用"順延"的方式來解決問題,看看這個算法:
    函數四、lpszString 爲要在hash表中查找的字符串;lpTable 爲存儲字符串hash值的hash表;nTableSize 爲hash表的長度:

int GetHashTablePos( char *lpszString, MPQHASHTABLE *lpTable, int nTableSize )
{
    const int HASH_OFFSET = 0, HASH_A = 1, HASH_B = 2;

    int nHash = HashString( lpszString, HASH_OFFSET );
    int nHashA = HashString( lpszString, HASH_A );
    int nHashB = HashString( lpszString, HASH_B );
    int nHashStart = nHash % nTableSize;
    int nHashPos = nHashStart;

    while ( lpTable[nHashPos].bExists )
    {
        /*如果僅僅是判斷在該表中是否存在這個字符串,就比較這兩個hash值就可以了,不用對
        *結構體中的字符串進行比較。這樣會加快運行的速度?減少hash表佔用的空間?這種
        *方法一般應用在什麼場合?*/
        if ( lpTable[nHashPos].nHashA == nHashA
            && lpTable[nHashPos].nHashB == nHashB )
        {
            return nHashPos;
        }
        else
        {
            nHashPos = (nHashPos + 1) % nTableSize;
        }

        if (nHashPos == nHashStart)
            break;
    }
    return -1;
}

上述程序解釋:
1.計算出字符串的三個哈希值(一個用來確定位置,另外兩個用來校驗)
2. 察看哈希表中的這個位置
3. 哈希表中這個位置爲空嗎?如果爲空,則肯定該字符串不存在,返回-1。
4. 如果存在,則檢查其他兩個哈希值是否也匹配,如果匹配,則表示找到了該字符串,返回其Hash值。
5. 移到下一個位置,如果已經移到了表的末尾,則反繞到表的開始位置起繼續查詢 
6. 看看是不是又回到了原來的位置,如果是,則返回沒找到
7. 回到3

 六、TOP K算法詳解

    問題描述
    搜索引擎會通過日誌文件把用戶每次檢索使用的所有檢索串都記錄下來,每個查詢串的長度爲1-255字節。
假設目前有一千萬個記錄(這些查詢串的重複度比較高,雖然總數是1千萬,但如果除去重複後,不超過3百萬個。一個查詢串的重複度越高,說明查詢它的用戶越多,也就是越熱門。),請你統計最熱門的10個查詢串,要求使用的內存不能超過1G。
     問題解析:
    要統計最熱門查詢,首先就是要統計每個Query出現的次數,然後根據統計結果,找出Top 10。所以我們可以基於這個思路分兩步來設計該算法。即,此問題的解決分爲以下倆個步驟
   第一步:Query統計
Query統計有以下倆個方法,可供選擇:
    1、直接排序法
    首先我們最先想到的的算法就是排序了,首先對這個日誌裏面的所有Query都進行排序,然後再遍歷排好序的Query,統計每個Query出現的次數了。
    但是題目中有明確要求,那就是內存不能超過1G,一千萬條記錄,每條記錄是255Byte,很顯然要佔據2.375G內存,這個條件就不滿足要求了。
    讓我們回憶一下數據結構課程上的內容,當數據量比較大而且內存無法裝下的時候,我們可以採用外排序的方法來進行排序,這裏我們可以採用歸併排序,因爲歸併排序有一個比較好的時間複雜度O(NlgN)。
    排完序之後我們再對已經有序的Query文件進行遍歷,統計每個Query出現的次數,再次寫入文件中。
    綜合分析一下,排序的時間複雜度是O(NlgN),而遍歷的時間複雜度是O(N),因此該算法的總體時間複雜度就是O(N+NlgN)=O(NlgN)。
    2、Hash Table法
    在第1個方法中,我們採用了排序的辦法來統計每個Query出現的次數,時間複雜度是NlgN,那麼能不能有更好的方法來存儲,而時間複雜度更低呢?
    題目中說明了,雖然有一千萬個Query,但是由於重複度比較高,因此事實上只有300萬的Query,每個Query255Byte,因此我們可以考慮把他們都放進內存中去,而現在只是需要一個合適的數據結構,在這裏,Hash Table絕對是我們優先的選擇,因爲Hash Table的查詢速度非常的快,幾乎是O(1)的時間複雜度。
    那麼,我們的算法就有了:維護一個Key爲Query字串,Value爲該Query出現次數的HashTable,每次讀取一個Query,如果該字串不在Table中,那麼加入該字串,並且將Value值設爲1;如果該字串在Table中,那麼將該字串的計數加一即可。最終我們在O(N)的時間複雜度內完成了對該海量數據的處理。
    本方法相比算法1:在時間複雜度上提高了一個數量級,爲O(N),但不僅僅是時間複雜度上的優化,該方法只需要IO數據文件一次,而算法1的IO次數較多的,因此該算法2比算法1在工程上有更好的可操作性。
    第二步:找出Top 10
    算法一:普通排序
    我想對於排序算法大家都已經不陌生了,這裏不在贅述,我們要注意的是排序算法的時間複雜度是NlgN,在本題目中,三百萬條記錄,用1G內存是可以存下的。
    算法二:部分排序
    題目要求是求出Top 10,因此我們沒有必要對所有的Query都進行排序,我們只需要維護一個10個大小的數組,初始化放入10個Query,按照每個Query的統計次數由大到小排序,然後遍歷這300萬條記錄,每讀一條記錄就和數組最後一個Query對比,如果小於這個Query,那麼繼續遍歷,否則,將數組中最後一條數據淘汰,加入當前的Query。最後當所有的數據都遍歷完畢之後,那麼這個數組中的10個Query便是我們要找的Top10了。
    不難分析出,這樣,算法的最壞時間複雜度是N*K, 其中K是指top多少。
    算法三:堆
    在算法二中,我們已經將時間複雜度由NlogN優化到NK,不得不說這是一個比較大的改進了,可是有沒有更好的辦法呢?
    分析一下,在算法二中,每次比較完成之後,需要的操作複雜度都是K,因爲要把元素插入到一個線性表之中,而且採用的是順序比較。這裏我們注意一下,該數組是有序的,一次我們每次查找的時候可以採用二分的方法查找,這樣操作的複雜度就降到了logK,可是,隨之而來的問題就是數據移動,因爲移動數據次數增多了。不過,這個算法還是比算法二有了改進。
    基於以上的分析,我們想想,有沒有一種既能快速查找,又能快速移動元素的數據結構呢?回答是肯定的,那就是堆。藉助堆結構,我們可以在log量級的時間內查找和調整/移動。因此到這裏,我們的算法可以改進爲這樣,維護一個K(該題目中是10)大小的小根堆,然後遍歷300萬的Query,分別和根元素進行對比,如果比根元素大,替換根元素,更新堆。
    思想與上述算法二一致,只是算法在算法三,我們採用了最小堆這種數據結構代替數組,把查找目標元素的時間複雜度有O(K)降到了O(logK)。
    那麼這樣,採用堆數據結構,算法三,最終的時間複雜度就降到了N‘logK,和算法二相比,又有了比較大的改進。
    總結:
    至此,算法就完全結束了,經過上述第一步、先用Hash表統計每個Query出現的次數,O(N);然後第二步、採用堆數據結構找出Top 10,N*O(logK)。所以,我們最終的時間複雜度是:O(N) + N'*O(logK)。(N爲1000萬,N’爲300萬)。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章