原创 np.rot90()

np.rot901.功能2.參數 1.功能 旋轉矩陣,有時用來旋轉圖像。 2.參數 import numpy as np np.rot90(array, k) array:待旋轉的矩陣 k:旋轉角度爲90°xk(默認爲1)

原创 cv2.VideoWriter()

cv2.VideoWriter前幾個參數最後一個參數,視頻的幀寬和幀高 前幾個參數 博客:cv2.VideoWriter() 最後一個參數,視頻的幀寬和幀高 這個可能經常容易寫錯或者忘記 outVideo = cv2.VideoW

原创 cv2.VideoCapture(0)從攝像頭獲取視頻流並處理但是處理速度慢

cv2.VideoCapture從攝像頭獲取視頻流並處理但是處理速度慢 在做深度學習視覺相關項目的時候,經常會遇到無法做到實時的情況。比如處理一幀圖像要3s,但是攝像頭採集的視頻裏在這3s內,可能已經讀了好幾十幀(假如fps是20

原创 【fork】openpose檢測的多種情況(多人,單人,圖像,視頻,計算角度)

openpose檢測的多種情況1.來源2.使用openpose檢測的代碼3.各種情況3.1 直接檢測多人(圖像)3.2 直接檢測多人(視頻)3.3 檢測單人(圖像)4.目標檢測代碼4.1 目標檢測4.1.1 主函數內的代碼4.1.

原创 使用餘弦定理計算反三角函數卻報超出定義域

使用math.acos計算反三角函數卻報超出定義域1.ERROR2.分析3.解決 1.ERROR 項目裏出錯的截圖找不到了,就用一個示例吧。 如上,arccos裏面的數應該是[-1, 1],理論上來說,三個點組成的三角形計算的話

原创 Linux命令行學習------簡單命令

簡單命令 本文將要學習的內容: date cal df free exit 本文將會介紹幾個linux的簡單指令,供初學者瞭解. 命令 功能 date 打印系統當前時間和日期 cal 打印當月的日曆 df

原创 【5】集成學習之隨機森林

隨機森林1.前言2.隨機森林2.1 爲什麼會有隨機森林2.2 建立一個隨機森林step1:創建一個引導(bootstrapped)數據集step2:使用引導數據集建立決策樹step3:重複2.3 怎麼使用一個隨機森林3.評估隨機森

原创 【7】SVM

SVM1.前言2.間隔和支持向量(基本原理)3.對偶問題4.核函數(非線性SVM)5.軟間隔與正則化6.支持向量機迴歸Appendix1.拉格朗日乘子法例題拉格朗日函數例題2.KKT條件(Kuhn-Tucker condition

原创 【4】決策樹

決策樹1.基本流程1.1介紹1.2算法2.劃分選擇(每個結點如何選特徵)2.1 信息增益(ID3算法)2.2例子2.3 增益率(C4.5算法)2.4 基尼指數(CART決策樹)2.5 損失函數3.剪枝處理3.1 預剪枝3.2 後剪

原创 【基礎篇】-tensor(張量)

【基礎】-tensor(張量) 一.創建一個tensor 1.只分配空間 x1 = torch.Tensor(5, 3) # 數據是隨機的,只是分配了可見,沒有初始化,所及數據是對應空間裏的數據 print(x1

原创 PyTorch實現經典網絡結構-FC+LeNet+VGG+GoogleNet+ResNet

PyTorch實現經典網絡結構 Reference: VGG GoogleNet :1,2 1.FC # 全連接神經網絡 class FCNet(nn.Module): """ 隱藏層1024個神經元的三層神

原创 python將科學計數法型數字的字符串轉化爲數字

python將科學計數法型數字的字符串轉化爲數字前言法一法二(剛開始的笨做法) 前言 之前由於需要讀取一些數據集裏的信息,而這些信息是存爲txt文件,讀取之後是字符串。數據本來全部都是數字。只不過用科學計數法表示的,使用int,f

原创 tensorflow搭建一個神經網絡

tensorflow搭建一個神經網絡

原创 卷積和池化到底在做什麼(資源整理)?

卷積和池化到底在做什麼? 學習深度學習都會接觸到卷積神經網絡,我們知道卷積神經網絡在視覺領域具有很好的效果。那麼爲什麼卷積就可以有這麼好的效果呢? 下面是一些比較好的博客: 知乎-如何通俗易懂的解釋卷積 卷積神經網絡之卷積計算、

原创 【3】線性模型

線性模型1.什麼是線性模型2.一元線性迴歸3.多元線性迴歸(1) 嶺迴歸(2) LASSO迴歸4.基於知識的線性迴歸5.廣義線性迴歸6.對數機率迴歸 注意:所有的向量默認是列向量 雖然建議大家瞭解計算過程,但是實際應用中計算用的不