sigmoid函數(也叫邏輯斯諦函數):
其實邏輯斯諦函數也就是經常說的sigmoid函數,它的幾何形狀也就是一條sigmoid曲線。
logistic曲線如下:
softmax函數:
Softmax 在機器學習和深度學習中有着非常廣泛的應用。尤其在處理多分類(C > 2)問題,分類器最後的輸出單元需要Softmax 函數進行數值處理。關於Softmax 函數的定義如下所示
其中,Vi 是分類器前級輸出單元的輸出。i 表示類別索引,總的類別個數爲 C。Si 表示的是當前元素的指數與所有元素指數和的比值。Softmax 將多分類的輸出數值轉化爲相對概率,更容易理解和比較。我們來看下面這個例子。
一個多分類問題,C = 4。線性分類器模型最後輸出層包含了四個輸出值,分別是:
經過Softmax處理後,數值轉化爲相對概率:
很明顯,Softmax 的輸出表徵了不同類別之間的相對概率。我們可以清晰地看出,S1 = 0.8390,對應的概率最大,則更清晰地可以判斷預測爲第1類的可能性更大。Softmax 將連續數值轉化成相對概率,更有利於我們理解。
softmax函數的本質就是將一個K 維的任意實數向量壓縮(映射)成另一個K
維的實數向量,其中向量中的每個元素取值都介於(0,1)之間。
兩者區別:
從定義中不難看出,Softmax函數是對Logistic函數的延伸擴展。拿Sigmoid函數(Logistic函數的一種)爲例,它將單個變量的取值變換到(0,1),而Softmax函數是Sigmoid函數的多維形式,參數不是單個變量而是多維向量。由於維度不同,Logistic函數常被應用於迴歸問題(稱爲Logistic迴歸)和神經網絡的激活函數。而Softmax函數常被用於神經網絡的最後一層,進行多分類。