原创 機器學習之線性迴歸、梯度下降以及引入正則化

在https://blog.csdn.net/hxx123520/article/details/104183577這個鏈接中已經詳細推導了線性損失函數函數的由來以及使用梯度下降和矩陣式求解求得θ\thetaθ使得損失函數最小。這

原创 機器學習實戰:邏輯迴歸+梯度下降

使用梯度下降的方法進行邏輯迴歸實戰: 問題說明: 這裏將建立一個邏輯迴歸模型來預測一個學生是否被大學錄取。 假設你是一個大學的管理員,你想根據兩次考試的結果來決定每個申請人的錄取機會,你有以前的申請人的歷史數據。可以用歷史數據作爲

原创 機器學習中多樣本情況下的正向傳播與反向傳播推導(手寫)

在網上看到很多關於機器學習中正向傳播與反向傳播的介紹,基本上都是基於單樣本來進行概括性的講解和公式的介紹,對於對數學不是很好的我在多樣本的情況下容易混亂,因此手寫了關於正向和反向傳播的計算,在正向傳播中比較容易理解,反向傳播中要求

原创 簡單的神經網絡

簡單的神經網絡 從零編寫一個簡單的神經網絡模型,網絡模型採用三層架構,分別L0,L1,L2層。假設第一層3個特徵(x1,x2,x3),第二層5個神經元,第三層一個輸出。 代碼實現如下: import numpy as np #定

原创 機器學習實戰:TensorFlow構建簡單卷積神經網絡

模型架構 輸入數據:n*784的數據 第一層卷積:卷積層1(filter=3* 3*1,個數爲64個,padding=1,s=1) 第一層池化:池化層1(maxpooling:2*2,s=2) 第二層卷積:卷積層2(filter:

原创 機器學習實戰:TensorFlow模型的保存和讀取

模型的保存:tf.train.Saver類中的save 在訓練一個TensorFlow模型之後,可以將訓練好的模型保存成文件,這樣可以方便下一次對新的數據進行預測的時候直接加載訓練好的模型即可獲得結果,可以通過TensorFlow

原创 機器學習實戰:TensorFlow構建簡單的神經網絡架構

import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_set

原创 機器學習實戰:TensorFlow構建線性迴歸模型

在本章中,開始使用簡單模型:線性迴歸來探索 TensorFlow 編程。基於這個例子,我將介紹一些代碼基礎知識,以及,如何調用學習過程中的各種重要組件,如函數函數或算法梯度下降。 變量之間的關係模型 線性迴歸是一種用於衡量變量之間

原创 機器學習實戰:TensorFlow構建邏輯迴歸模型

import tensorflow as tf import matplotlib.pyplot as plt from tensorflow .examples .tutorials .mnist import input_da

原创 機器學習實戰:基於邏輯迴歸模型的信用卡欺詐檢測

某銀行爲提升信用卡反欺詐檢測能力,提供了脫敏後的一份個人交易記錄。考慮數據本身的隱私性,數據提供之初已經進行了類似PCA的處理,並得到了若干數據特徵。在不需要做額外特徵提取工作的情況下,本項目意在通過邏輯迴歸模型的調優,得到較爲準

原创 Numpy中矩陣向量乘法np.dot()及np.multiply()以及*區別

Numpy中的矩陣向量乘法分別是np.dot(a,b)、np.multiply(a,b) 以及*,剛開始接觸的時候比較模糊,於是自己整理了一下。先來介紹理論,然後再結合例子深入瞭解一下。 數組 矩陣 元素乘法 np

原创 機器學習之線性迴歸

1.什麼是線性迴歸 線性迴歸,首先要介紹一下機器學習中的兩個常見的問題:迴歸任務和分類任務。那什麼是迴歸任務和分類任務呢?簡單的來說,在監督學習中(也就是有標籤的數據中),標籤值爲連續值時是迴歸任務,標誌值是離散值時是分類任務。

原创 線性迴歸中最小二乘法矩陣表現形式及最小化時關於參數theta的解析解的推導(手寫)

1.最小二乘法的矩陣表現形式 第一頁紙定義了損失函數的樣子, theta, X 和 y 的 shape, 以及最終的損失函數向量表現形式. 2.最小化時參數θ\thetaθ矩陣式求解的推導 第二頁紙抄上了幾個要用到的矩陣求導公式

原创 神經網絡中的激活函數

神經網絡中的激活函數 1.什麼是激活函數? 神經網絡中,在隱藏層接一個線性變換後,再接一個非線性變換(sigmoid、tanh、ReLu等),這種非線性變換叫做激活函數(Activation Function)或者傳遞函數。 2