原创 yolo v1源碼解析

本文介紹了yolo v1的實現過程,同時就其實現過程中幾個關鍵的函數進行了詳細的註釋。 本文結構如下: 一、源碼概述 二、建立網絡 三、訓練 四、測試 源碼概述 源碼地址:https://github.com/1273

原创 yolo v1原理

本文結構如下: yolo v1基本思路、網絡結構、網絡訓練、網絡預測 一、基本思路 yolo v1 是one stage的目標檢測算法,將一張圖片分爲S×SS×SS×S個網格,每個網格負責預測中心點落在此網格內的目標。每個網格會預

原创 tf.metrics.accuracy拋出異常

問題: 使用tf.metrics.accuracy評估模型時,拋出異常Attempting to use uninitialized value accuracy/count 解決方案: 第一點: 初始化變量: 由於metrics.a

原创 PASCAL VOC數據集

PASCAL VOC數據集是一種 . └── VOCdevkit #根目錄 └── VOC2012 #不同年份的數據集,這裏只下載了2012的,還有2007等其它年份的

原创 tf.reduce_max

1、二維tensor x = tf.constant([[1, 2, 3], [4, 5, 6]]) tf.reduce_max(x) # 6 tf.reduce_max(x, 0) # [4, 5, 6] tf.

原创 python參數定義方法

1、定義一個名爲config.py的文件,然後將其import到對應的.py文件中 #config文件 IMAGE_SIZE = 448 #main.py文件 import config as cof cof.IMAGE_SIZE

原创 創建文件夾-python

os中關於文件的常用操作 os.path.exists(path) # 查看文件或者文件夾是否存在 os.path.isdir(path) # 查看文件夾是否存在 os.path.isfile(path) # 查看

原创 concat stack transpose

concat and stack tf.concat相當於numpy中的np.concatenate函數,用於將兩個張量在某一個維度(axis)合併起來 a=tf.reshape(np.arange(4),(2,2)) [[0 1]

原创 Batch Normalization

優點: 不再依賴精細的參數初始化過程,可以調大學習率加快模型收斂速度,同時引入的隨機噪聲能夠起到對模型參數進行正則化的作用,可以不使用或者較少對dropout和LI、L2LI、L2 正則化的依賴,有利於增強模型泛化能力。 缺點: 1

原创 遷移學習

遷移學習:把公共的數據集的知識遷移到自己的問題上,即將已經訓練好的模型的一部分知識(網絡結構)直接應用到另一個類似模型中去 小數據集: 利用遷移學習,應用其他研究者建立的模型和參數,用少量的數據僅訓練最後自定義的softmax網絡。從

原创 梯度下降算法總結

    梯度下降算法  優點 缺點     BGD(batch) 1、相對噪聲低 2、凸函數可以收斂到全局小值 每更新一次參數都要遍歷所有樣本,計算量開銷大,計算速度慢 對於非凸函數收斂到局部最小值      

原创 k_means和KNN

(摘自參考鏈接1) k_means算法流程: (1)隨機選擇K個點作爲每個類的初始質心; (2)在數據集中選擇一個樣本,計算其與每個類質心的距離,然後將該樣本歸到距離最短的那個中心所在的類。 重複此操作,直到所有樣本全部歸好類

原创 可視化CNN feature map 現存問題

1、tensorboard顯示: tf.summary.image(name="?" , tensor=?) 主要問題:卷積層特徵圖通道都很大,需要進行重新reshape成Tensorboard可以顯示的通道數(1或3或4) 方法一: d

原创 Dropout

1、dropout簡述 dropout是解決神經網絡模型過擬合的一種常用方法。 dropout是指在神經網絡訓練過程中,以一定的概率隨機丟棄神經元(注意是暫時丟棄),以減少神經元之間的依賴性,從而提高模型的泛化能力。 drop

原创 反向傳播推導

DNN反向傳播算法 CNN反向傳播算法 DNN和CNN反向傳播總結