一、單變量分類:
1、激活函數
利用激活函數實現分類。
2、代價函數
理解:y是真實值,而h(x)是預測值,所以,如果預測值等於真實值,那麼損失就是0,而如果預測是1,真實是0,那麼就證明預測及其不準確,所以損失就變成無窮大。
3、損失函數的梯度下降:
二、代碼實現
準備:
決策邊界
二、多變分類
其他差不多,多了以下幾個步驟:
1、特徵映射
def feature_mapping(x1, x2, power): data = {} for i in np.arange(power + 1): for j in np.arange(i + 1): data['F{}{}'.format(i - j, j)] = np.power(x1, i - j) * np.power(x2, j) return pd.DataFrame(data)
2、損失函數:
3、梯度下降