faiss簡介及示例

簡介

faiss是爲稠密向量提供高效相似度搜索和聚類的框架。由Facebook AI Research研發。 具有以下特性。

  • 1、提供多種檢索方法
  • 2、速度快
  • 3、可存在內存和磁盤中
  • 4、C++實現,提供Python封裝調用。
  • 5、大部分算法支持GPU實現

下面給出一些快速鏈接方便查找更多內容。

github
官方文檔
c++類信息
Troubleshooting
官方安裝文檔

安裝

文檔中給出來編譯安裝,conda等安裝方式。因爲公司服務器編譯安裝需要權限,所有我們一般使用conda的方式安裝python Module。

# 更新conda
conda update conda
# 先安裝mkl
conda install mkl
# faiss提供gpu和cpu版,根據服務選擇
conda install faiss-cpu -c pytorch # cpu
conda install faiss-gpu -c pytorch # gpu
# 校驗是否安裝成功
python -c "import faiss"

Quick Start

這裏先給出官方提供的demo來感受一下faiss的使用。

首先構建訓練數據和測試數據

import numpy as np
d = 64                           # dimension
nb = 100000                      # database size
nq = 10000                       # nb of queries
np.random.seed(1234)             # make reproducible
xb = np.random.random((nb, d)).astype('float32')
xb[:, 0] += np.arange(nb) / 1000.
xq = np.random.random((nq, d)).astype('float32')
xq[:, 0] += np.arange(nq) / 1000.

上面我們構建了shape爲[100000,64]的訓練數據xb,和shape爲[10000,64]的查詢數據xq
然後創建索引(Index)。faiss創建索引對向量預處理,提高查詢效率。
faiss提供多種索引方法,這裏選擇最簡單的暴力檢索L2距離的索引:IndexFlatL2
創建索引時必須指定向量的維度d。大部分索引需要訓練的步驟。IndexFlatL2跳過這一步。
當索引創建好並訓練(如果需要)之後,我們就可以執行addsearch方法了。add方法一般添加訓練時的樣本,search就是尋找相似相似向量了。
一些索引可以保存整型的ID,每個向量可以指定一個ID,當查詢相似向量時,會返回相似向量的ID及相似度(或距離)。如果不指定,將按照添加的順序從0開始累加。其中IndexFlatL2不支持指定ID。

import faiss                   # make faiss available
index = faiss.IndexFlatL2(d)   # build the index
print(index.is_trained)
index.add(xb)                  # add vectors to the index
print(index.ntotal)

我們有了包含向量的索引後,就可以傳入搜索向量查找相似向量了。

k = 4                          # we want to see 4 nearest neighbors
D, I = index.search(xq, k)     # actual search
print(I[:5])                   # neighbors of the 5 first queries
print(D[-5:])                  # neighbors of the 5 last queries

上面代碼中,我們定義返回每個需要查詢向量的最近4個向量。查詢返回兩個numpy array對象DID表示與相似向量的距離(distance),維度,I表示相似用戶的ID。

我們可以得到類似於下面的結果

[[  0 393 363  78]
 [  1 555 277 364]
 [  2 304 101  13]
 [  3 173  18 182]
 [  4 288 370 531]]

[[ 0.          7.17517328  7.2076292   7.25116253]
 [ 0.          6.32356453  6.6845808   6.79994535]
 [ 0.          5.79640865  6.39173603  7.28151226]
 [ 0.          7.27790546  7.52798653  7.66284657]
 [ 0.          6.76380348  7.29512024  7.36881447]]

加速搜索

如果需要存儲的向量太多,通過暴力搜索索引IndexFlatL2速度很慢,這裏介紹一種加速搜索的方法的索引IndexIVFFlat。翻譯過來叫倒排文件,其實是使用K-means建立聚類中心,然後通過查詢最近的聚類中心,然後比較聚類中的所有向量得到相似的向量。

創建IndexIVFFlat時需要指定一個其他的索引作爲量化器(quantizer)來計算距離或相似度。

這裏同使用IndexFlatL2對比,在add方法之前需要先訓練。

下面簡述示例中的幾個參數。

faiss.METRIC_L2: faiss定義了兩種衡量相似度的方法(metrics),分別爲faiss.METRIC_L2faiss.METRIC_INNER_PRODUCT。一個是歐式距離,一個是向量內積(餘弦相似度)。

nlist:聚類中心的個數

k:查找最相似的k個向量

index.nprobe:查找聚類中心的個數,默認爲1個。

代碼示例如下

nlist = 100                       #聚類中心的個數
k = 4
quantizer = faiss.IndexFlatL2(d)  # the other index
index = faiss.IndexIVFFlat(quantizer, d, nlist, faiss.METRIC_L2)
       # here we specify METRIC_L2, by default it performs inner-product search
assert not index.is_trained
index.train(xb)
assert index.is_trained

index.add(xb)                  # add may be a bit slower as well
D, I = index.search(xq, k)     # actual search
print(I[-5:])                  # neighbors of the 5 last queries
index.nprobe = 10              # default nprobe is 1, try a few more
D, I = index.search(xq, k)
print(I[-5:])                  # neighbors of the 5 last queries

減少內存

2018-02-22之後版本添加了磁盤存儲inverted indexes的方式,使用可參考demo.

上面我們看到的索引IndexFlatL2IndexIVFFlat都會全量存儲所有的向量在內存中,爲滿足大的數據量的需求,faiss提供一種基於Product Quantizer(乘積量化)的壓縮算法編碼向量大小到指定的字節數。此時,存儲的向量時壓縮過的,查詢的距離也是近似的。關於乘積量化的算法可自行搜索。

下面給出demo。類似IndexIVFFlat,這裏使用的是IndexIVFPQ

nlist = 100
m = 8                             # number of bytes per vector
k = 4
quantizer = faiss.IndexFlatL2(d)  # this remains the same
index = faiss.IndexIVFPQ(quantizer, d, nlist, m, 8)
                                    # 8 specifies that each sub-vector is encoded as 8 bits
index.train(xb)
index.add(xb)
D, I = index.search(xb[:5], k) # sanity check
print(I)
print(D)
index.nprobe = 10              # make comparable with experiment above
D, I = index.search(xq, k)     # search
print(I[-5:])

之前我們定義的維度爲d = 64,向量的數據類型爲float32。這裏壓縮成了8個字節。所以壓縮比率爲 (64*32/8) / 8 = 32

返回的結果如下,第一個向量同自己的距離爲1.40704751,不是0。因爲如上所述返回的是近似距離,但是整體上返回的最相似的top k的向量ID沒有變化。

[[   0  608  220  228]
 [   1 1063  277  617]
 [   2   46  114  304]
 [   3  791  527  316]
 [   4  159  288  393]]

[[ 1.40704751  6.19361687  6.34912491  6.35771513]
 [ 1.49901485  5.66632462  5.94188499  6.29570007]
 [ 1.63260388  6.04126883  6.18447495  6.26815748]
 [ 1.5356375   6.33165455  6.64519501  6.86594009]
 [ 1.46203303  6.5022912   6.62621975  6.63154221]]

簡化索引的表達

通過上面IndexIVFFlatIndexIVFPQ我們可以看到,他們的構造需要先提供另外一個index。類似的,faiss還提供pca、lsh等方法,有時候他們會組合使用。這樣組合的對構造索引會比較麻煩,faiss提供了通過字符串表達的方式構造索引。
如,下面表達式就能表示上面的創建IndexIVFPQ的實例。

index = faiss.index_factory(d, "IVF100,PQ8")

這裏有一點文檔中沒有提到的,通過查看c++代碼index_factory方法還有第三個參數,就是上面說的metric。可傳入的就上面兩種。

Index *index_factory (int d, const char *description_in, MetricType metric)

更多的組合實例可以看demo

每類索引的簡寫可查詢Basic indexes

GPU使用

注意有些索引不支持GPU,哪些支持哪些不支持可查詢Basic indexes

可通過faiss.get_num_gpus()查詢有多少個gpu

ngpus = faiss.get_num_gpus()
print("number of GPUs:", ngpus)

使用gpu的完整示例。

1、使用一塊gpu

# build a flat (CPU) index
index_flat = faiss.IndexFlatL2(d)
# make it into a gpu index
gpu_index_flat = faiss.index_cpu_to_gpu(res, 0, index_flat)

2、使用全部gpu

cpu_index = faiss.IndexFlatL2(d)
gpu_index = faiss.index_cpu_to_all_gpus(cpu_index) # build the index

gpu_index.add(xb)              # add vectors to the index
print(gpu_index.ntotal)

k = 4                          # we want to see 4 nearest neighbors
D, I = gpu_index.search(xq, k) # actual search
print(I[:5])                   # neighbors of the 5 first queries
print(I[-5:])                  # neighbors of the 5 last queries
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章