原创 機器學習&深度學習的一些知識點

優化函數 SGD是隨機梯度下降,每一次迭代計算數據集的mini-batch的梯度,然後對參數進行更新 momentum參考了物理中動量的概念,前幾次梯度也會參與到當前的計算中去,但是前幾輪的梯度疊加會在當前一輪有一定的衰減 ada

原创 將多個文件夾下的文件放在一個文件下下

將多個文件夾下的文件放在一個文件下下## 標題 import os import shutil def copyfile(filepath,newpath): #獲取當前文件下的文件名 filenames=os.listdir(f

原创 c++基本語言知識

指針與引用的區別 指針有一塊自己空間,引用只是一個別名 使用sizeof看成一個指針的大小是4,引用則是被引用對象的大小 指針可以初始化爲NULL,引用必須初始化,並且應該是一個已有對象的引用 參數傳遞的時候,指針需要解引用纔可

原创 視頻檢索

視頻檢索 本文采用了三種方法進行視頻檢索 1 根據圖像檢索視頻關鍵幀的算法 2 採用vedioSearch的方式進行檢索 3 採用yolo視頻目標檢測的算法進行檢索 下面針對三種方法進行詳細說明 根據圖像檢索視頻關鍵幀的算法 s

原创 給文件夾中的文件重命名

# -*- encoding:utf-8 -*- from PIL import Image import os.path import glob import shutil import os f1 = open('boxan

原创 視頻檢索前期研究

1 linux 線程操作問題undefined reference to 'pthread_create’的解決辦法(cmake) 找到類似這一句的:gcc -g -Wall -I/usr/local/include -o

原创 pytorch與Golab

指定顯卡跑程序 1 export CUDA_VISIBLE_DEVICES=0 2 在生成網絡對象之前: torch.cuda.set_device(0) 3 初始化模型時 net = Net.cuda(0) p

原创 根據TXT文件將選出來的文件專門挑出來

# -*- encoding:utf-8 -*- from PIL import Image import os.path import glob import shutil def convertjpg(src,outdir):

原创 faster rcnn新的理解

本篇文章結合了源碼解讀記憶對於faster rcnn進行一些新的看法 精髓就是:使用深度卷積網絡選出候選框,fast rcnn選出候選區域,attention,RPN告訴fast rcnn 到底應該關注哪裏。 首先faster r

原创 集成學習

集成學習 集成學習就是構建多個學習器來完成學習任務,也稱爲多分類系統,也就是對多個學習器進行組合,獲得比單一學習器顯著優越的泛化性能。 集成學習分類 各自之間存在強依賴關係,必須要串行生成的序列化方法 boosting

原创 機器學習方法總結

常見的機器學習算法 1.學習方式 常見的算法 介紹 常見的學習方法 應用場景 監督學習 輸入數據成爲訓練數據,每組訓練數據都有一個明確的標識或結果,監督學習就是建立一個學習過程將預測結果與訓練數據的實際結果進行比較,

原创 字符創最後一個字符的長度

代碼解釋 #include<iostream> #include<string>//包含這個頭文件 using namespace std; int main() { string s; getline(cin,

原创 集成學習2

bagging 從原始的訓練集中抽取訓練集,每輪從原始樣本集中使用Bootstraping的方法抽取n個訓練樣本又放回的抽取,進行k輪抽取,得到k個訓練集。 每次使用一個訓練集得到一個模型,k個訓練集就得到k個模型 對分類問題將

原创 c ++關於指針的一些理解

指針與引用的區別 非空,任何情況下都不能使用指向空值的引用,一個引用必須指向某個對象,不存在指向空值的引用。 -合法性,在使用引用之前,不需要測試他的合法性。指針總是被測試,以防止爲空。 下面使用指針和引用實現兩個數的交

原创 重新梳理神經網絡

卷積神經網絡的結構介紹 卷積核是一組隨機初始化的數的序列。 每個神經元只需要在局部進行感知,然後在高層將局部信息綜合起來就得到全局信息。所以局部感受野就能很好的降低參數。 卷積的目的是爲了提取特徵,根據局部感受野一小塊一小塊的比對