sigmod 函數與softmax 函數對比

sigmod 函數與softmax 函數之間既有類似,又有差異,是兩種典型的深度神經網絡的activation functions。通俗而言,sigmod 函數常用於二分類,softmax 函數常用於多分類。兩者都起到了壓縮的作用。

sigmoid函數(也叫邏輯斯諦函數)

引用wiki百科的定義:

A logistic function or logistic curve is a common “S” shape (sigmoid curve).
在這裏插入圖片描述
  其實邏輯斯諦函數也就是經常說的sigmoid函數,它的幾何形狀也就是一條sigmoid曲線。

logistic曲線如下:
這裏寫圖片描述

softmax 函數

同樣,我們貼一下wiki百科對softmax函數的定義:

softmax is a generalization of logistic function that “squashes”(maps) a K-dimensional vector z of arbitrary real values to a K-dimensional vector σ(z) of real values in the range (0, 1) that add up to 1.

這句話既表明了softmax函數與logistic函數的關係,也同時闡述了softmax函數的本質就是將一個K
維的任意實數向量壓縮(映射)成另一個K

維的實數向量,其中向量中的每個元素取值都介於(0,1)之間。

softmax函數形式如下:
  這裏寫圖片描述
總結:sigmoid將一個real value映射到(0,1)的區間(當然也可以是(-1,1)),這樣可以用來做二分類。
而softmax把一個k維的real value向量(a1,a2,a3,a4….)映射成一個(b1,b2,b3,b4….)其中bi是一個0-1的常數,然後可以根據bi的大小來進行多分類的任務,如取權重最大的一維。
參考:
https://www.cnblogs.com/charlesblc/p/6750290.html
http://blog.csdn.net/u014422406/article/details/52805924

發佈了8 篇原創文章 · 獲贊 2 · 訪問量 2萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章