李宏毅學習筆記29.Anomaly Detection

簡介

本節是新加的內容,根據老師的描述Anomaly Detection就是要機器知道它不知道這件事情。
在這裏插入圖片描述
公式輸入請參考:在線Latex公式

Problem Formulation

Given a set of training data: {x1,x2,,xN}\{x^1,x^2,\cdots,x^N\}
• We want to find a function detecting input 𝑥 is similar to training data or not.
這個事情如果從機器學習的角度來看,實際上是要機器去找一個function(藍色框框)
在這裏插入圖片描述
在這裏插入圖片描述
Different approaches use different ways to determine the similarity.
Anomaly Detection不一定是找不好的東西,例如novelty是找出新穎的對象。
下面來看什麼叫做異常?取決於數據,例如:
在這裏插入圖片描述

應用

• Fraud Detection
Training data: 正常刷卡行為, 𝑥: 盜刷?
Ref: https://www.kaggle.com/ntnu-testimon/paysim1/home
Ref: https://www.kaggle.com/mlg-ulb/creditcardfraud/home
• Network Intrusion Detection
Training data: 正常連線, 𝑥: 攻擊行為?
Ref: http://kdd.ics.uci.edu/databases/kddcup99/kddcup99.html
• Cancer Detection
Training data: 正常細胞, 𝑥: 癌細胞
Ref: https://www.kaggle.com/uciml/breast-cancer-wisconsin-data/home

如何做Anomaly Detection

思路1看做二分類的方法來弄。

二分類

Given normal data {x1,x2,,xN}\{x^1,x^2,\cdots,x^N\}
Given anomaly {x~1,x~2,,x~N}\{\tilde x^1,\tilde x^2,\cdots,\tilde x^N\}
Then training a binary classifier ……就這樣結束?
不可以這樣玩,例如:
正常的數據xx是寶可夢:
在這裏插入圖片描述
那麼異常的數據x~\tilde x是除了寶可夢之外的一切事物:
在這裏插入圖片描述
神奇寶貝、涼宮春日、茶壺。。。。這些東西cannot be considered as a class.
原因:
1、無法窮舉非寶可夢的對象,無法把異常視爲一個類別。
2、很難收集到anomaly 的數據。Even worse, in some cases, it is difficult to find anomaly example ……
看來二分類不行,那麼Anomaly Detection有幾種?

Categories

第一種:稱爲:Open-set Recognition,每一個訓練數據都有對應的標籤,那麼我們可以訓練一個Classifier(可以用NN,也可以用線性分類器),這個Classifier訓練好後,如果看到訓練數據中不存在的數據,那麼可以爲其打上【unknown】的標籤。
第二種:只有訓練數據,沒有標籤。這裏又分兩種情況:

  1. All the training data is normal.所有數據都是正常數據。
  2. A little bit of training data is anomaly. 有一些數據是異常數據。

在這裏插入圖片描述
下面分別對各個類別進行講解。

Case 1: With Classifier

Example Application

判斷卡通人物是否來自辛普森家庭
在這裏插入圖片描述

在這裏插入圖片描述
現在有數據及標籤:
在這裏插入圖片描述
然後要訓練分類器:
在這裏插入圖片描述
Source of model: https://www.kaggle.com/alexattia/the-simpsons-characters-dataset/
有人做了這個分類器,準確率還不錯:96%:
在這裏插入圖片描述
修改這個分類器,使其在輸入人物是屬於辛普森家庭中的哪一個,還要輸出對分類結果的信心分數cc
在這裏插入圖片描述
然後根據信心分數來進行異常檢測:
f(x)={normalc(x)>λanomalyc(x)λf(x)=\begin{cases} normal & c(x)>\lambda \\ anomaly & c(x)\leq\lambda \end{cases}

估計信心分數

由於Classifier的輸出實際上是一個分佈(softmax),所以會有:
在這裏插入圖片描述
如果丟一張怪怪的圖片:
在這裏插入圖片描述
也就是說softmax輸出的最大值就是信心分數(上圖中的紅框)。
或者算分類機率的熵,熵越大說明越混亂,越無法確定分類。
其實用哪種方法沒有很大差別,這裏用第一種,方便:
在這裏插入圖片描述
在這裏插入圖片描述

在這裏插入圖片描述
由以上結果看到如果輸入是辛普森家族中的人物,信心分數會比較高,反之比較低。
但是也有例外:
在這裏插入圖片描述
老師說,但凡是出現機器識別錯誤的情況,一般都會把非辛普森家族人物識別爲柯阿三
在這裏插入圖片描述
因爲它是辛普森家族中唯一一個不是黃臉的人物,所以一旦出現非辛普森家族人物,機器認錯的話就會認爲是柯阿三。
上面的涼宮春日的頭髮是棕色,和柯阿三的臉顏色差不多,所以會出錯。
在網上發佈的辛普森數據集中,把所有數據丟到當前Classifier中得到的信心分數結果如下圖:
Confidence score distribution for characters from Simpsons :
在這裏插入圖片描述
可以看到結果是非常集中的,當然也有錯誤的地方(紅色)
Confidence score distribution for anime characters:
在這裏插入圖片描述
上面的丟隨意的動漫人物進去得到的結果,丟了1萬5千張,只有1400張左右是識別爲辛普森家族人物。多數輸入的信心分數比較低。
上面用分類器求信心分數的方法簡單實用,是實作的首選,當然還有更復雜的方法:

Outlook: Network for Confidence Estimation

文獻:Terrance DeVries, Graham W. Taylor, Learning Confidence for Out-of-Distribution Detection in Neural Networks, arXiv, 2018
• Learning a network that can directly output confidence
在訓練NN的時候就直接訓練NN輸出信心分數。(不展開)
在這裏插入圖片描述

Example Framework

小結一下辛普森家庭人物異常檢測模型的框架:
Training Set: Images xx of characters from Simpsons.Each image xx is labelled by its characters y^\hat y.
Train a classifier, and we can obtain confidence score c(x)c(x)from the classifier.
f(x)={normalc(x)>λanomalyc(x)λf(x)=\begin{cases} normal & c(x)>\lambda \\ anomaly & c(x)\leq\lambda \end{cases}
Dev Set: Images xx
Label each image xx is from Simpsons or not. (圖片x是要帶標籤的:是否來自辛普森家族)
We can compute the performance of f(x)f(x).
Using dev set to determine λ\lambda and other hyperparameters.
訓練的時候數據是都來自辛普森家族,調參的時候都要有。
Testing Set: Image xx \rightarrow from Simpsons or not. #

Evaluation

上面的Dev Set部分要根據performance of f(x)f(x)來調整 λ\lambda ,下面來看怎麼做:
100 Simpsons,5 anomalies(紅色).
在這裏插入圖片描述
雖然最右邊那個美女的信心分數是0.998,但是模型對於大多數的辛普森家族人物識別的信心分數是大於0.998的。
所以不是說有人物識別出來的信心分數很高就說這個分類器很爛,而是我們可以設置λ\lambda的閾值大於0.998,來確保其他人物的分類是非辛普森家族人物。
在這裏插入圖片描述

Cost的判斷

Accuracy is not a good measurement!
A system can have high accuracy, but do nothing.
因爲異常值比較少。例如上圖中的,如果5個異常值全部識別錯誤:
5 wrong, 100 correct. Accuracy: 100100+5=95.2%\cfrac{100}{100+5}=95.2\%
因此我們要分開來看,如果現在λ\lambda在如下圖所示的位置:
在這裏插入圖片描述
那麼我們可以根據異常值和正常值,是否被發現來做表格:

Anomaly Normal
Detected 1 1 (False alarm)正常判斷爲錯誤
not 4 (Missing)錯誤未判斷 99

λ\lambda換個地方
在這裏插入圖片描述

Anomaly Normal
Detected 2 6 (False alarm)正常判斷爲錯誤
not 3 (Missing)錯誤未判斷 94

這兩個系統哪個好要取決我們對False alarm或是Missing的容忍度。
我們可以把容忍度做Cost表格A:

Cost Anomaly Normal
Detected 0 100
not 1 0

意思是異常值Missing記1分,正常值False alarm記100分,那麼系統1的cost爲104,而系統2的cost爲603。系統1比較好
如果用另外一個Cost表格B:

Cost Anomaly Normal
Detected 0 1
not 100 0

意思是異常值Missing記100分,正常值False alarm記1分,那麼系統1的cost爲401,而系統2的cost爲306。系統2比較好。
Cost表格B比較適合懲罰Missing的情況,例如癌症未檢測比無並檢測爲癌症要嚴重。
Some evaluation metrics consider the ranking. For example, Area under ROC curve

其他問題

理想的分類器是這樣子的,下面是貓狗分類器:
在這裏插入圖片描述
如果有些動物沒有貓的特徵也沒有狗的特徵:
在這裏插入圖片描述
那我們會把這些東西放在邊界上,分數會比較低。
但是有些動物有雖然不是貓狗但是有貓狗的特徵,例如老虎和狼。而且老虎比貓還要像貓,狼比狗還要像狗。
所以老虎和狼在分類器上的信心分數比貓和狗還高。
在這裏插入圖片描述
回到辛普森分類的例子,如果把二次元人物和老師的頭像改變一下,結果是:
在這裏插入圖片描述
意思就是如果分類器是按黃色來進行區分是否辛普森家族人物的時候,如果有些圖片不是辛普森人物,但是也明顯帶有黃色的特徵,就會分類出錯,如何解決這個問題?(不展開)
就是教機器兩個事情(文獻:Kimin Lee, Honglak Lee, Kibok Lee, Jinwoo Shin, Training Confidencecalibrated Classifiers for Detecting Out-of-Distribution Samples, ICLR 2018):
1、正確的對象信心分數要越高越好;(這個之前就說了)
2、異常的對象信心分數要越低越好。Learn a classifier giving low confidence score to anomaly.
但是之前說了,異常對象不好收集。有人提出用訓練一個生成模型生成一些異常對象。(文獻:Mark Kliger, Shachar Fleishman, Novelty Detection with GAN, arXiv, 2018)

Case 2: Without Labels

Twitch Plays Pokémon

在這裏插入圖片描述
一款網絡遊戲,主角是由N個人同時操控,系統會選擇其中一個指令進行操作。
·Why is the game so difficult?
答:Probably because of “Troll”(網絡小白)
· Players that are not familiar with the game
· Just for fun .…
· Malicious players…
in all, the players who don’t want to complete the game.
假設想要通關的玩家的操作是正常數據,能否使用異常檢測找到Troll?
下面看如何解決這個問題

Problem Formulation

Given a set of training data: {x1,x2,,xN}\{x^1,x^2,\cdots,x^N\}.
We want to find a function detecting input xx is similar to training data or not.
這裏的輸入信息xx 是一個玩家
在這裏插入圖片描述
也就是每一個玩家要先表示成一個feature vector,才能進行機器學習
在這裏插入圖片描述
例如第一維x1x_1可以表示爲說垃圾話的頻率;
第二維x2x_2可以表示爲無政府狀態下的發言頻率。(這裏系統操作角色有兩種模式,一種是取所有輸入操作中取操作最多的動作進行操作,例如:100個玩家有90個輸入←,那麼遊戲角色就向←走,一種是隨機模式(無政府狀態),不管輸入操作的多少,都隨機選一個進行操作。有研究表明,在無政府狀態下,troll傾向於發起操作。)
現在我們有大量的輸入,但是沒有標籤y,我們可以建立一個機率模型P(x)P(x),用來表示某一個玩家操作發生的機率,然後根據P(x)P(x)來設置閾值看玩家是否是異常。
在這裏插入圖片描述
然後把所有玩家的x1x_1x2x_2的分佈可視化出來:
在這裏插入圖片描述
從圖中可以看到,P(x)P(x)大的玩家可能是正常玩家(左上角的點),反之是異常玩家。
下面要像更加精確的用數字來表達這個事情,就要用的MLE:
Assuming the data points is sampled from a probability density function fθ(x)f_\theta(x)
θ\theta determines the shape of fθ(x)f_\theta(x)
θ\theta is unknown, to be found from data
在這裏插入圖片描述
L(θ)=fθ(x1)fθ(x2)fθ(xN)(1)L(\theta)=f_\theta(x^1)f_\theta(x^2)\cdots f_\theta(x^N)\tag1
要找θ\theta^*使得PDF最大:
θ=argmaxθL(θ)(2)\theta^*=arg\underset{\theta}{\text{max}}L(\theta)\tag2
我們假設分佈是高斯分佈
fμ,Σ(x)=1(2π)D/21Σ1/2exp{12(xμ)TΣ1(xμ)}D is the dimension of xf_{\mu,\Sigma}(x)=\cfrac{1}{(2\pi)^{D/2}}\cfrac{1}{|\Sigma|^{1/2}}exp\left \{-\cfrac{1}{2}(x-\mu)^T\Sigma^{-1}(x-\mu) \right \}\\ D\text{ is the dimension of }x
這個分佈看上去很複雜,但是我們只需要把它看做是輸入爲向量x,輸出是這個向量x被sample到的機率。Input: vector x, output: probability density of sampling x.
θ\theta which determines the shape of the function are mean μ\mu and covariance matrix Σ\Sigma
公式(1)就可以寫成:
L(μ,Σ)=fμ,Σ(x1)fμ,Σ(x2)fμ,Σ(xN)L(\mu,\Sigma)=f_{\mu,\Sigma}(x^1)f_{\mu,\Sigma}(x^2)\cdots f_{\mu,\Sigma}(x^N)
公式(2)可以寫成:
μ,Σ=argmaxμ,ΣL(μ,Σ)\mu^*,\Sigma^*=arg\underset{\mu,\Sigma}{\text{max}}L(\mu,\Sigma)
在這裏插入圖片描述
注:當然,也可以假設參數θ\theta不是高斯分佈產生的,可以是更加複雜的網絡參生的(不展開)。
μ,Σ\mu^*,\Sigma^*可以直接根據MLE的公式算出來,直接貼結果:
在這裏插入圖片描述
在這裏插入圖片描述
最後就可以把x代入下面的判斷條件,來決定是否是異常玩家。
fμ,Σ(x)=1(2π)D/21Σ1/2exp{12(xμ)TΣ1(xμ)}f_{\mu^*,\Sigma^*}(x)=\cfrac{1}{(2\pi)^{D/2}}\cfrac{1}{|\Sigma^*|^{1/2}}exp\left \{-\cfrac{1}{2}(x-\mu^*)^T\Sigma^{-1}(x-\mu^*) \right \}
f(x)={normalfμ,Σ(x)>λanomalyfμ,Σ(x)λf(x)=\begin{cases} normal & f_{\mu^*,\Sigma^*}(x)>\lambda \\ anomaly & f_{\mu^*,\Sigma^*}(x)\leq\lambda \end{cases}
可視化後:
在這裏插入圖片描述
The colors represents the value of fμ,Σ(x)f_{\mu^*,\Sigma^*}(x) ,顏色月紅越正常,越淺越異常。
由於我們是用向量來表示x,因此我們可以考慮不止兩個維度:
x1x_1: Percent of messages that are spam (說垃圾話)
x2x_2: Percent of button inputs during anarchy mode (無政府狀態發言)
x3x_3: Percent of button inputs that are START (按 START鍵)
x4x_4: Percent of button inputs that are in the top 1 group (跟大家一樣)
x5x_5: Percent of button inputs that are in the bottom 1 group (唱反調)
下面給三個實例,由於fμ,Σ(x)f_{\mu^*,\Sigma^*}(x)一般比較小,所以在前面加上log。
在這裏插入圖片描述
除了使用高斯分佈來找異常數據,還有:

Outlook: Auto-encoder

原理:
Using training data to learn an autoencoder.
在這裏插入圖片描述
在測試階段,如果數據是正常的:
在這裏插入圖片描述
那麼數據可以還原。
如果數據是異常的:
在這裏插入圖片描述
那麼就無法還原。

其他方法

One-class SVM (Ref: https://papers.nips.cc/paper/1723-support-vector-method-for-noveltydetection.pdf)
在這裏插入圖片描述
Isolated Forest(Ref:https://cs.nju.edu.cn/zhouzh/zhouzh.files/publication/icdm08b.pdf)
在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章