簡述sigmoid與softmax

sigmoid函數(也叫邏輯斯諦函數):
  其實邏輯斯諦函數也就是經常說的sigmoid函數,它的幾何形狀也就是一條sigmoid曲線。
  在這裏插入圖片描述
  logistic曲線如下:
  在這裏插入圖片描述softmax函數:
  Softmax 在機器學習和深度學習中有着非常廣泛的應用。尤其在處理多分類(C > 2)問題,分類器最後的輸出單元需要Softmax 函數進行數值處理。關於Softmax 函數的定義如下所示
  
  在這裏插入圖片描述
  其中,Vi 是分類器前級輸出單元的輸出。i 表示類別索引,總的類別個數爲 C。Si 表示的是當前元素的指數與所有元素指數和的比值。Softmax 將多分類的輸出數值轉化爲相對概率,更容易理解和比較。我們來看下面這個例子。
一個多分類問題,C = 4。線性分類器模型最後輸出層包含了四個輸出值,分別是:
在這裏插入圖片描述
經過Softmax處理後,數值轉化爲相對概率:

在這裏插入圖片描述
  很明顯,Softmax 的輸出表徵了不同類別之間的相對概率。我們可以清晰地看出,S1 = 0.8390,對應的概率最大,則更清晰地可以判斷預測爲第1類的可能性更大。Softmax 將連續數值轉化成相對概率,更有利於我們理解。
  softmax函數的本質就是將一個K 維的任意實數向量壓縮(映射)成另一個K

維的實數向量,其中向量中的每個元素取值都介於(0,1)之間。
兩者區別:
從定義中不難看出,Softmax函數是對Logistic函數的延伸擴展。拿Sigmoid函數(Logistic函數的一種)爲例,它將單個變量的取值變換到(0,1),而Softmax函數是Sigmoid函數的多維形式,參數不是單個變量而是多維向量。由於維度不同,Logistic函數常被應用於迴歸問題(稱爲Logistic迴歸)和神經網絡的激活函數。而Softmax函數常被用於神經網絡的最後一層,進行多分類。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章