原创 深度學習第一課 線性迴歸

最近在學習李沐的Mxnet/Gluon深度學習的線性迴歸部分,線性迴歸是很基本的一種監督學習,分類問題。 以前學習完一遍吳恩達的《machine learning》,並把《機器學習實戰》裏面的主要代碼都實現一遍,現在有點忘記了,正好開始深

原创 OPencv 霍夫變換

參考文章:http://www.opencv.org.cn/opencvdoc/2.3.2/html/doc/tutorials/imgproc/imgtrans/hough_lines/hough_lines.html

原创 Pytorch中的Tensor和tensor

樣例在Pytorch版本“0.4.0”中測試成功。 可參考文章爲:https://blog.csdn.net/tfcy694/article/details/85338745   #t.Tensor 與 t.tensor的區別 imp

原创 使用Pytorch對數據集CIFAR-10分類處理

使用Pytorch對數據集CIFAR-10進行分類,主要是以下幾個步驟: 下載並預處理數據集 定義網絡結構 定義損失函數和優化器 訓練網絡並更新參數 測試網絡效果 #數據加載和預處理 #使用CIFAR-10數據進行分類實驗 import

原创 Pytorch 之squeeze和unsqueeze用法

Pytorch使用中常會用到torch.squeeze()和torch.unsqueeze()函數: 查找資料相關記錄如下: 參考博客:https://blog.csdn.net/qq_39709535/article/details/8

原创 windows7+caffe(CPU)+Anaconda2 配置

記錄一下學習深度學習框架caffe的Windows安裝,電腦上沒有GPU所以先裝個CPU版本的Caffe跑跑小demo,過段時間看需要可以試試服務器。 具體的配置如下: 1)Anaconda2(注意一定是python2版本的要不然配置的時

原创 《機器學習實戰》——線性迴歸

線性迴歸原理比較簡單,其在一維特徵時候的方程我們在高中階段就學習過了,對於多維特徵的線性迴歸,只是在其基礎上進行擴展,對於尋找合適參數的過程,可以使用梯度下降的方法來進行,但對於線性迴歸而言,其實是有數值解的:              

原创 scikit-learn 機器學習庫學習小計

scikit-learn是一個非常流行的工具,也是最有名的Python機器學習庫。 在此對以前學的知識進行整理,記錄在這裏。 首先是經典的鳶尾花數據,KNN分類: from sklearn import datasets impor

原创 Kaggle-House Prices

前段時間嘗試着做了一下kaggle中的House Prices,是一個迴歸問題,通過對給定的訓練集進行分析,來預測測試集中的房屋價格,測試集中的數據主要是房屋特徵(features),包活很多比如:臥室的數量,臨街否等等共79個,在對其進

原创 《機器學習實戰》——KNN

    幾個月前學習機器學習的時候,將《機器學習實戰》中的算法手動實現了一遍,現在回顧一下,並在此記錄,查缺補漏: 本書中的第一個算法是KNN,K近鄰算法,該算法模型時監督學習部分,根據K值將數據進行分類,原理其實比較簡單,通過不斷的找尋

原创 Python 遍歷文件夾下的文件

最近在做一個和圖像有關的項目,需要遍歷文件夾中的圖片,這裏可以使用兩種方法: 1)使用python的glob模塊: import glob as gb img_path = gb.glob(r'D:\pictures\*.jpg')

原创 Python3+Opencv3 答題卡識別

參考:https://my.oschina.net/DDigimon/blog/1236298?tdsourcetag=s_pctim_aiomsg     小計: 1)cv2.Canny():  cv2.Canny()第一個參數是輸入圖

原创 Python Pandas包學習小計

pandas一般用於讀取.csv文件,有些類似於電子表格,使用Python進行數據處理時經常會用到,以前學過一次,總不用容易忘記,再次簡單記錄。 #Pandas 基礎 import pandas as pd import numpy a

原创 深度學習第三課 多層感知機

        多層感知機針對於中間有隱藏層的神經網絡結構,對於數據的每一層傳遞都會相應的多一層[w,b],這中間使用的傳參函數稱之爲激活函數,如果激活函數是線性的話,那麼就沒什麼意義,無論中間有多少層,其實和沒有隱藏層是一樣的,所以需要

原创 深度學習第二課 Softmax迴歸

與第一課線性迴歸(linear regression)不同,softmax迴歸針對的是多分類的情況,即labels不再僅有0,1兩個分類。 softmax通過指數運算將最後的分類轉爲0~1間的概率,在終於類別概率中,數值大的爲預測概率。