TF-IDF與餘弦相似性的應用(二):找出相似文章

        今天,我們再來研究另一個相關的問題。有些時候,除了找到關鍵詞,我們還希望找到與原文章相似的其他文章。比如,"Google新聞"在主新聞下方,還提供多條相似的新聞。

爲了找出相似的文章,需要用到"餘弦相似性"(cosine similiarity)。下面,我舉一個例子來說明,什麼是"餘弦相似性"。

爲了簡單起見,我們先從句子着手。

  句子A:我喜歡看電視,不喜歡看電影。

  句子B:我不喜歡看電視,也不喜歡看電影。

請問怎樣才能計算上面兩句話的相似程度?

基本思路是:如果這兩句話的用詞越相似,它們的內容就應該越相似。因此,可以從詞頻入手,計算它們的相似程度。

第一步,分詞。

  句子A:我/喜歡/看/電視,不/喜歡/看/電影。

  句子B:我/不/喜歡/看/電視,也/不/喜歡/看/電影。

第二步,列出所有的詞。

  我,喜歡,看,電視,電影,不,也。

第三步,計算詞頻。

  句子A:我 1,喜歡 2,看 2,電視 1,電影 1,不 1,也 0。

  句子B:我 1,喜歡 2,看 2,電視 1,電影 1,不 2,也 1。

第四步,寫出詞頻向量。

  句子A:[1, 2, 2, 1, 1, 1, 0]

  句子B:[1, 2, 2, 1, 1, 2, 1]

到這裏,問題就變成了如何計算這兩個向量的相似程度

        我們可以把它們想象成空間中的兩條線段,都是從原點([0, 0, ...])出發,指向不同的方向。兩條線段之間形成一個夾角,如果夾角爲0度,意味着方向相同、線段重合;如果夾角爲90度,意味着形成直角,方向完全不相似;如果夾角爲180度,意味着方向正好相反。因此,我們可以通過夾角的大小,來判斷向量的相似程度。夾角越小,就代表越相似。

以二維空間爲例,上圖的a和b是兩個向量,我們要計算它們的夾角θ。餘弦定理告訴我們,可以用下面的公式求得:

假定a向量是[x1, y1],b向量是[x2, y2],那麼可以將餘弦定理改寫成下面的形式:

數學家已經證明,餘弦的這種計算方法對n維向量也成立。假定A和B是兩個n維向量,A是 [A1, A2, ..., An] ,B是 [B1, B2, ..., Bn] ,則A與B的夾角θ的餘弦等於:

使用這個公式,我們就可以得到,句子A與句子B的夾角的餘弦。

餘弦值越接近1,就表明夾角越接近0度,也就是兩個向量越相似,這就叫"餘弦相似性"所以,上面的句子A和句子B是很相似的,事實上它們的夾角大約爲20.3度。

由此,我們就得到了"找出相似文章"的一種算法:

1、使用TF-IDF算法,找出兩篇文章的關鍵詞;

2、每篇文章各取出若干個關鍵詞(比如20個),合併成一個集合,計算每篇文章對於這個集合中的詞的詞頻(爲了避免文章長度的差異,可以使用相對詞頻);

3、生成兩篇文章各自的詞頻向量;

4、計算兩個向量的餘弦相似度,值越大就表示越相似。

"餘弦相似度"是一種非常有用的算法,只要是計算兩個向量的相似程度,都可以採用它。

下一次,我想談談如何在詞頻統計的基礎上,自動生成一篇文章的摘要。

 

轉載自:http://www.ruanyifeng.com/blog/2013/03/cosine_similarity.html

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章