LSH之simHash算法

徹底弄懂LSH之simHash算法

    <div class="postBody">
        <div id="cnblogs_post_body"><p><span style="font-family: 楷體; font-size: 18pt;">  馬克·吐溫曾經說過,所謂經典小說,就是指很多人希望讀過,但很少人真正花時間去讀的小說。這種說法同樣適用於“經典”的計算機書籍。</span></p>

  最近一直在看LSH,不過由於matlab基礎比較差,一直沒搞懂。最近看的論文裏幾乎都是用simHash來實現LSH,從而進行ANN。

  有空看看基於滑動窗口的論文相似性檢測。

  如何用matlab畫出一個數列(函數)的收斂過程(菱形收斂、圓形收斂)?

  學完分佈式了,我打算自己學WordPress,建立自己的獨立博客,放在雲平臺或者服務器空間,然後學着分析流量和負載均衡這一類,這也算是數據挖掘了吧。

  我的學習目標:像吳軍博士一樣深入淺出地講解出來一個知識點,這需要很深厚的積累,我以前寫的《徹底弄懂最短路徑問題》,自己感覺挺不錯的,網友反饋也不錯;雖然說實踐和理論相輔相成,筆者個人覺得鮮血little理論,再搞many實踐,最後在學much理論,進而繼續指導實踐,螺旋遞增式學習。

一.基礎知識

1.1 Java位運算

  位運算只適合整數哦。。。因爲浮點的存儲方案決定不能位運算,如果非要位運算,就需要Float.floatToIntBits,運算完,再通過Float.intBitsToFloat轉化回去。(java默認的float,double的hashcode其實就是對應的floatToIntBits的int值)

1.2 Java中浮點數比較大小

  C++用fabs函數,Java中用Double.doubleToLongBits函數,然後直接比較大小,內部原理不做探討。

1.3 StringTokenzier

  Java中substring方法可以分解字符串,返回的是原字符串的一個子字符串。如果要講一個字符串分解爲一個一個的單詞或者標記,StringTokenizer可以幫你。

  StringTokenizer確實更快些,至於爲什麼jdk裏不推薦使用了,還要再研究(現在是split結合正則表達式)。
  測試方法:用StringBuilder的append方法,構造100W字符串,然後分別分別測試並算時間就ok了。

1.4 偶然所得

  final可以不再定義時候初始化,好像可以再構造方法裏初始化。

二.simHash算法簡介

  以前寫的一個介紹simHash的。

  1、分詞,把需要判斷文本分詞形成這個文章的特徵單詞。最後形成去掉噪音詞的單詞序列併爲每個詞加上權重,我們假設權重分爲5個級別(1~5)。比如:“ 美國“51區”僱員稱內部有9架飛碟,曾看見灰色外星人 ” ==> 分詞後爲 “ 美國(4) 51區(5) 僱員(3) 稱(1) 內部(2) 有(1) 9架(3) 飛碟(5) 曾(1) 看見(3) 灰色(4) 外星人(5)”,括號裏是代表單詞在整個句子裏重要程度,數字越大越重要。

  2、hash,通過hash算法把每個詞變成hash值,比如“美國”通過hash算法計算爲 100101,“51區”通過hash算法計算爲 101011。這樣我們的字符串就變成了一串串數字,還記得文章開頭說過的嗎,要把文章變爲數字計算才能提高相似度計算性能,現在是降維過程進行時。

  3、加權,通過 2步驟的hash生成結果,需要按照單詞的權重形成加權數字串,比如“美國”的hash值爲“100101”,通過加權計算爲“4 -4 -4 4 -4 4”;“51區”的hash值爲“101011”,通過加權計算爲 “ 5 -5 5 -5 5 5”。

  4、合併,把上面各個單詞算出來的序列值累加,變成只有一個序列串。比如 “美國”的 “4 -4 -4 4 -4 4”,“51區”的 “ 5 -5 5 -5 5 5”, 把每一位進行累加, “4+5 -4+-5 -4+5 4+-5 -4+5 4+5” ==》 “9 -9 1 -1 1 9”。這裏作爲示例只算了兩個單詞的,真實計算需要把所有單詞的序列串累加。

  5、降維,把4步算出來的 “9 -9 1 -1 1 9” 變成 0 1 串,形成我們最終的simhash簽名。 如果每一位大於0 記爲 1,小於0 記爲 0。最後算出結果爲:“1 0 1 0 1 1”。

三.算法幾何意義及原理

3.1 幾何意義

  這個算法的幾何意義非常明瞭。它首先將每一個特徵映射爲f維空間的一個向量,這個映射規則具體是怎樣並不重要,只要對很多不同的特徵來說,它們對所對應的向量是均勻隨機分佈的,並且對相同的特徵來說對應的向量是唯一的就行。比如一個特徵的4位hash簽名的二進制表示爲1010,那麼這個特徵對應的 4維向量就是(1, -1, 1, -1)T,即hash簽名的某一位爲1,映射到的向量的對應位就爲1,否則爲-1。然後,將一個文檔中所包含的各個特徵對應的向量加權求和,加權的係數等於該特徵的權重。得到的和向量即表徵了這個文檔,我們可以用向量之間的夾角來衡量對應文檔之間的相似度。最後,爲了得到一個f位的簽名,需要進一步將其壓縮,如果和向量的某一維大於0,則最終簽名的對應位爲1,否則爲0。這樣的壓縮相當於只留下了和向量所在的象限這個信息,而64位的簽名可以表示多達264個象限,因此只保存所在象限的信息也足夠表徵一個文檔了。

3.2 算法原理描述性證明

  明確了算法了幾何意義,使這個算法直觀上看來是合理的。但是,爲何最終得到的簽名相近的程度,可以衡量原始文檔的相似程度呢?這需要一個清晰的思路和證明。在simhash的發明人Charikar的論文中並沒有給出具體的simhash算法和證明,以下列出我自己得出的證明思路。
  Simhash是由隨機超平面hash算法演變而來的,隨機超平面hash算法非常簡單,對於一個n維向量v,要得到一個f位的簽名(f<<n),算法如下:
  1,隨機產生f個n維的向量r1,…rf;
  2,對每一個向量ri,如果v與ri的點積大於0,則最終簽名的第i位爲1,否則爲0.
  這個算法相當於隨機產生了f個n維超平面,每個超平面將向量v所在的空間一分爲二,v在這個超平面上方則得到一個1,否則得到一個0,然後將得到的 f個0或1組合起來成爲一個f維的簽名。如果兩個向量u, v的夾角爲θ,則一個隨機超平面將它們分開的概率爲θ/π,因此u, v的簽名的對應位不同的概率等於θ/π。所以,我們可以用兩個向量的簽名的不同的對應位的數量,即漢明距離,來衡量這兩個向量的差異程度。
  Simhash算法與隨機超平面hash是怎麼聯繫起來的呢?在simhash算法中,並沒有直接產生用於分割空間的隨機向量,而是間接產生的:第 k個特徵的hash簽名的第i位拿出來,如果爲0,則改爲-1,如果爲1則不變,作爲第i個隨機向量的第k維。由於hash簽名是f位的,因此這樣能產生 f個隨機向量,對應f個隨機超平面。下面舉個例子:
  假設用5個特徵w1,…,w5來表示所有文檔,現要得到任意文檔的一個3維簽名。假設這5個特徵對應的3維向量分別爲:
  h(w1) = (1, -1, 1)T
  h(w2) = (-1, 1, 1)T
  h(w3) = (1, -1, -1)T
  h(w4) = (-1, -1, 1)T
  h(w5) = (1, 1, -1)T
  按simhash算法,要得到一個文檔向量d=(w1=1, w2=2, w3=0, w4=3, w5=0) T的簽名,
先要計算向量m = 1*h(w1) + 2*h(w2) + 0*h(w3) + 3*h(w4) + 0*h(w5) = (-4, -2, 6) T,然後根據simhash算法的步驟3,得到最終的簽名s=001。上面的計算步驟其實相當於,先得到3個5維的向量,第1個向量由h(w1),…,h(w5)的第1維組成:r1=(1,-1,1,-1,1) T;第2個5維向量由h(w1),…,h(w5)的第2維組成:r2=(-1,1,-1,-1,1) T;同理,第3個5維向量爲:r3=(1,1,-1,1,-1) T.按隨機超平面算法的步驟2,分別求向量d與r1,r2,r3的點積:

  d T r1=-4 < 0,所以s1=0;
  d T r2=-2 < 0,所以s2=0;
  d T r3=6 > 0,所以s3=1.
  故最終的簽名s=001,與simhash算法產生的結果是一致的。
  從上面的計算過程可以看出,simhash算法其實與隨機超平面hash算法是相同的,simhash算法得到的兩個簽名的漢明距離,可以用來衡量原始向量的夾角。這其實是一種降維技術,將高維的向量用較低維度的簽名來表徵。衡量兩個內容相似度,需要計算漢明距離,這對給定簽名查找相似內容的應用來說帶來了一些計算上的困難;我想,是否存在更爲理想的simhash算法,原始內容的差異度,可以直接由簽名值的代數差來表示呢?

  參考http://blog.sina.com.cn/s/blog_72995dcc010145ti.html

四.算法與網頁去重

  例如,文本的特徵可以選取分詞結果,而權重可以用df來近似。
  Simhash具有兩個“衝突的性質”:
  1. 它是一個hash方法
  2. 相似的文本具有相似的hash值,如果兩個文本的simhash越接近,也就是漢明距離越小,文本就越相似。
  因此海量文本中查重的任務轉換位如何在海量simhash中快速確定是否存在漢明距離小的指紋。也就是:在n個f-bit的指紋中,查詢漢明距離小於k的指紋。
在文章的實驗中,simhash採用64位的哈希函數。在80億網頁規模下漢明距離=3剛好合適。
因此任務的f-bit=64 , k=3 , n= 8*10^11
  任務清晰,首先看一下兩種很直觀的方法:
  1. 枚舉出所有漢明距離小於3的simhash指紋,對每個指紋在80億排序指紋中查詢。(這種方法需要進行C(64,3)=41664詞的simhash指紋,再爲每個進行一次查詢)
  2. 所有接近的指紋排序到一起,這至多有41664排序可能,需要龐大的空間。提出的方法介於兩者之間,合理的空間和時間的折中。
  假設我們有一個已經排序的容量爲2d,f-bit指紋集。看每個指紋的高d位。該高低位具有以下性質:儘管有很多的2d位組合存在,但高d位中有隻有少量重複的。
  現在找一個接近於d的數字d’,由於整個表是排好序的,所以一趟搜索就能找出高d’位與目標指紋F相同的指紋集合f’。因爲d’和d很接近,所以找出的集合f’也不會很大。
  最後在集合f’中查找 和F之間海明距離爲k的指紋也就很快了。
  總的思想:先要把檢索的集合縮小,然後在小集合中檢索f-d’位的海明距離
按照例子,80億網頁 有2^34 個,那麼理論上34位就能表示完80億不重複的指紋。我們假設最前的34位的表示完了80億指紋,假設指紋在前30位是一樣的,那麼後面4位還可以表示24個, 只需要逐一比較這16個指紋是否於待測指紋漢明距離小於3。
  假設:對任意34位中的30位都可以這麼做。
  因此在一次完整的查找中,限定前q位精確匹配(假設這些指紋已經是q位有序的,可以採用二分查找,如果指紋量非常大,且分佈均勻,甚至可以採用內插搜索),之後的2d-q個指紋剩下64-q位需要比較漢明距離小於3。
  於是問題就轉變爲如何切割64位的q。
  將64位平分成若干份,例如4份ABCD,每份16位。
  假設這些指紋已經按A部分排序好了,我們先按A的16位精確匹配到一個區間,這個區間的後BCD位檢查漢明距離是否小於3。
  同樣的假設,其次我們按B的16位精確匹配到另一個區間,這個區間的所有指紋需要在ACD位上比較漢明距離是否小於3。
  同理還有C和D,所以這裏我們需要將全部的指紋T複製4份, T1 T2 T3 T4, T1按A排序,T2按B排序… 4份可以並行進行查詢,最後把結果合併。這樣即使最壞的情況:3個位分別落在其中3個區域ABC,ACD,BCD,ABD…都不會被漏掉。

  只精確匹配16位,還需要逐一比較的指紋量依然龐大,可能達到2d-16個,我們也可以精確匹配更多的。
  例如:將64位平分成4份ABCD,每份16位,在BCD的48位上,我們再分成4份,WXZY,每份12位, 漢明距離的3位可以散落在任意三塊,那麼A與WXZY任意一份合起來做精確的28位…剩下3份用來檢查漢明距離。 同理B,C,D也可以這樣,那麼T需要複製16次,ABCD與WXYZ的組合做精確匹配,每次精確匹配後還需要逐一比較的個數降低到2d-28個。不同的組合方式也就是時間和空間上的權衡。
  最壞情況是其中3份可能有1位漢明距離差異爲1。
  算法的描述如下:
  1)先複製原表T爲Tt份:T1,T2,….Tt
  2)每個Ti都關聯一個pi和一個πi,其中pi是一個整數, πi是一個置換函數,負責把pi個bit位換到高位上。
  3)應用置換函數πi到相應的Ti表上,然後對Ti進行排序
  4)然後對每一個Ti和要匹配的指紋F、海明距離k做如下運算:
    a) 然後使用F’的高pi位檢索,找出Ti中高pi位相同的集合
    b) 在檢索出的集合中比較f-pi位,找出海明距離小於等於k的指紋
  5)最後合併所有Ti中檢索出的結果
  由於文本已經壓縮成8個字節了,因此其實Simhash近似查重精度並不高:

   筆者注:這個方法是第二次看了,還是不甚理解……..講解不夠直觀明瞭……….

五.算法Java實現

  想了很久,覺得直接放代碼是個不好的習慣,容易依賴別人,所以筆者放在CSDN上,不過只需要1分。

六.結束語及參考文獻

6.1 結束語

  熬夜感覺並不好,如何才能戒掉這個壞習慣。

  谷歌真叼……

  筆者會在下一篇博文裏探討simHash和VSM與網頁去重。

  探討信息檢索與跳躍表。

  探討二分圖最大權匹配(這個應用比較廣吧,感覺可以用來精確投放廣告,靈感來自計算機121教師和課程互選)。

6.2  部分參考文獻

  http://blog.sina.com.cn/s/blog_72995dcc010145ti.html

  http://gemantic.iteye.com/blog/1701101

  http://blog.csdn.net/lgnlgn/article/details/6008498

  http://blog.csdn.net/meijia_tts/article/details/7928579

  論文Detecting near-duplicates for web crawling.

本文版權歸作者火星十一郎所有,歡迎轉載和商用,但未經作者同意必須保留此段聲明,且在文章頁面明顯位置給出原文連接,否則保留追究法律責任的權利.
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章