Max-Mahalanobis Linear Discriminant Analysis Networks

文章目錄

Pang T, Du C, Zhu J, et al. Max-Mahalanobis Linear Discriminant Analysis Networks[C]. international conference on machine learning, 2018: 4013-4022.

@article{pang2018max-mahalanobis,
title={Max-Mahalanobis Linear Discriminant Analysis Networks},
author={Pang, Tianyu and Du, Chao and Zhu, Jun},
pages={4013–4022},
year={2018}}

本文介紹了從最大化馬氏距離的角度提出了一種defense.

主要內容

對於倆個分佈來說, 區分樣本屬於哪一個分佈, 最好的分類器就是貝葉斯分類, 特別的, 如果是高斯分佈, 且協方差矩陣一致, 則其分類平面爲
wT(xx0)=0, w^T(x-x_0)=0,
其中
w=Σ1(μ1μ2), w=\Sigma^{-1} (\mu_1 - \mu_2),
x0=1μ1+μ2ln(P(w1)P(w2))μ1μ2μ1μ2Σ12. x_0=\frac{1}{\mu_1+\mu_2} - \ln (\frac{P(w_1)}{P(w_2)}) \frac{\mu_1-\mu_2}{\|\mu_1-\mu_2\|_{\Sigma^{-1}}^2}.
特別的, 當Σ\Sigma爲對角矩陣的時候, 其分類平面只與μ1μ2\mu_1-\mu_2有關.

設一個混合高斯分佈:
P(y=i)=πi,P(xy=i)=N(μi,Σ),i[L]:=1,,L, P(y=i)=\pi_i, P(x|y=i)=\mathcal{N}(\mu_i, \Sigma), \quad i \in [L]:=1,\ldots,L,
並定義
Δi,j:=[(μiμj)TΣ1(μiμj)]1/2. \Delta_{i,j} := [(\mu_i-\mu_j)^T \Sigma^{-1} (\mu_i - \mu_j)]^{1/2}.

因爲神經網絡強大的擬合分佈能力, 我們可以假設Σ=I\Sigma=I(文中將\Sigma$分解, 然後用變量替換可以得到, 馬氏距離在此情況下具有不變性, 我覺得不如直接這麼解釋比較實在).

設想, 從第i個分佈中採樣x(i)N(μi,I)x_{(i)} \sim \mathcal{N}(\mu_i, I), 將x(i)x_{(i)}移動到與jj類的分類平面的距離設爲d(i,j)d_{(i,j)},

定理: 如果πi=πj\pi_i=\pi_j, 則d(i,j)d_{(i,j)}的期望爲
E[d(i,j)]=2πexp(Δi,j28)+12Δi,j[12Φ(Δi,j2)], \mathbb{E}[d_{(i,j)}] = \sqrt{\frac{2}{\pi}} \exp(-\frac{\Delta_{i,j}^2}{8})+\frac{1}{2} \Delta_{i,j} [1-2\Phi(-\frac{\Delta_{i, j}}{2})],
其中Φ\Phi表示正態分佈函數.

注意, 這裏的di,jd_{i,j}xx到分類平面的距離, 也就是說, 如果x(i)x_{(i)}如果本身就位於別的類中, 同樣也計算這個距離, 不公平, 當然如果這麼考慮, 證明起來就相當麻煩了.

如果定義
RB=mini,j[L]E[d(i,j)], \mathrm{RB} = \min_{i,j\in [L]} \mathbb{E}[d_{(i,j)}],
則我們自然希望RB\mathrm{RB}越大越好(越魯棒, 但是根據我們上面的分析, 這個定義是存在瑕疵的). 然後通過導數, 進一步發現
RBRBˉ:=mini,j[L]Δi,j/2. \mathrm{RB} \approx \bar{\mathrm{RB}} := \min_{i,j \in [L]} \Delta_{i,j} / 2.

有定理:
在這裏插入圖片描述

所以, 作者的結論就是, 最後一層
zi=μiTf(x)+bi, z_i =\mu_i^Tf(x)+b_i,
滿足(4)(4), 爲此作者設計了一個算法
在這裏插入圖片描述
去構造. 所以, 這最後一層的參數是固定不訓練的. 餘下的與普通的網絡沒有區別.

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章