原创 Pytorch實例----NLP之文本分類

介紹:       使用Y Yelp dataset (提取碼:eqy3),對餐館評價做訓練,預測新的評價是否屬於積極評價。 整體流程:       數據集預處理:對json數據集解析csv格式,並進行數據集劃分; import csv

原创 統計學習方法——第1章 統計學習方法概論

統計學習方法 第一章 統計學習方法概論 1.1 統計學習 ​ 對象:數據。基本假設:同類數據具有一定的統計規律性。 ​ **統計學習方法三要素:**模型、策略、算法 ​ **統計學習的組成:**監督學習、非監督學習、半監督學習、強

原创 統計學習方法——第2章 感知機模型

感知機(perception)是二分類的線性分類模型,其輸入爲實例的特徵向量,輸出爲實例的類別,取+1和-1。感知機對應於輸入空間(特徵空間)中將實例劃分爲正負兩類的分離超平面,屬於判別模型。 2.1 感知機模型 f(x)=sig

原创 Pytorch學習基礎——LSTM從訓練到測試

在上一篇Pytorch學習基礎——LeNet從訓練到測試講述了簡單神經網絡LeNet識別MNIST數據集的實例,作爲對比,本次將結合LSTM實現對MNIST數據集的識別。 實現過程: 導入必要的包並設置超參數: import torch

原创 統計學習方法——第2章 感知機模型編程實現

       在上一篇統計學習方法———第2章感知機模型中介紹了感知機學習模型、策略和算法,這裏通過編程實現對iris數據集的萼片長度(sepal length)和萼片寬度(sepal width)進行線性分類。       Iris 鳶

原创 win10安裝CUDA9.0+CUDANN+Anaconda3+PYTORCH1.x

當前神經網絡方法的訓練和預測越來越依賴於GPU並行運算,因此在win10上配置CUDA+Pytorch,記錄配置過程。 硬件平臺:     win10(64位), NVIDIA Geforce 940M 軟件下載:     1:CUDA9

原创 Pytorch實例----CAFAR10數據集分類(VGG)

      在上一篇 Pytorch實例----CAFAR10數據集分類(AlexNet)的識別統計,本篇主要調整Net()類,設計VGG網絡(+BN)後的識別統計(其他設計註釋同上)。                          

原创 統計學習方法——第3章 k近鄰法

3.1 k近鄰法介紹 k近鄰法是一種基本的分類與迴歸方法。對於分類問題,給定訓練數據集和實例標籤。分類時,對新的實例,根據k個最近鄰的訓練實例的類別,通過多數表決等方式進行預測。因此,k近鄰法不具有顯示的學習過程。k近鄰法實際上利用訓練數

原创 第7章 支持向量機(SVM)

第7章 支持向量機(SVM) 背景 ​ 支持向量機由簡至繁可分爲:線性可分支持向量機(linear support vector machine in linearly separable case)、線性支持向量機(linear

原创 統計學習方法——第4章 樸素貝葉斯法

樸素貝葉斯法(naive Bayes):       樸素貝葉斯法是基於貝葉斯理論與特徵條件獨立假設的分類方法。  對於給定的數據集,基於特徵條件獨立假設學習輸入/輸出的聯合概率分佈,然後基於此模型,對給定的輸入,利用貝葉斯定理求解最大化

原创 CUDA out of Memery 解決方法

使用TensorFlow、Pytorch等深度學習工具時容易出現以下ERROR: RuntimeError:CUDA out of memory 解決方法: 1、設置更小的batchsize 2、查看並清空GPU緩存: fuser

原创 MANFOLD TX2配置Pytorch1.x方法總結(Python3.5+CUDA9.0+Opencv3.4.1)

硬件環境: MANFOLD TX2 Ubuntu16.04 Python 3.5 CUDA 9.0 CDUANN 7.x 配置過程: 1、查看CUDA與CUDANN版本 dji@manifold2:~$ nvcc -V nvcc: NV

原创 Pytorch實例----CAFAR10數據集分類(AlexNet)

CAFAR10數據集介紹:CAFAR 圖像大小: 訓練集:50000 測試集:10000 類別: classes = ('plane', 'automobile', 'bird', 'cat', 'deer', 'dog', 'frog

原创 目標檢測之迴歸損失計量方法

         目標檢測主要完成“what”和“where”任務,即識別一張圖像的哪些位置有哪些目標,通常的模型損失包含兩部分:分類損失(classification loss)和迴歸損失(bounding box regression

原创 目標檢測之NMS算法

非極大值抑制(Non-Maximum Suppression,NMS),即抑制不是極大值的元素,可以理解爲局部最大搜索。 目標檢測的piplinne: NMS在post-processing中起到了篩選最大IOU相似度的類別anchor