兩者的本質相同,分類和迴歸的區別在於輸出變量的類型。
定量——連續——迴歸
定性——離散——分類
用於迴歸:最後一層有m個神經元,每個神經元輸出一個標量,m個神經元的輸出可以看作向量V,現全部連到一個神經元上,則這個神經元的輸出爲wx+b,是一個連續值,可以處理迴歸問題
用於分類:現在把這m個神經元連接到N個神經元,就有N組w值不同的wv+b,同理,可以歸一化(softmax)變成N個類上的概率。
兩者的本質相同,分類和迴歸的區別在於輸出變量的類型。
定量——連續——迴歸
定性——離散——分類
用於迴歸:最後一層有m個神經元,每個神經元輸出一個標量,m個神經元的輸出可以看作向量V,現全部連到一個神經元上,則這個神經元的輸出爲wx+b,是一個連續值,可以處理迴歸問題
用於分類:現在把這m個神經元連接到N個神經元,就有N組w值不同的wv+b,同理,可以歸一化(softmax)變成N個類上的概率。
Bag-of-Words 1.文字問題 2. 什麼是Bag-of-Words(具體例子) 3. 侷限性 1.文字問題 文本建模的一個問題是它很雜亂,機器學習算法之類的技術更喜歡定義明確的
講解的很清楚: https://www.cnblogs.com/wangguchangqing/p/12021638.html