原创 resnet 論文

問題:深度的神經網絡很難訓練 解決方法:我們通過殘差學習網絡,訓練更深的網絡,實驗顯示深度殘差網絡很容易收斂並且通過加深網絡更容易提升準確率。   問題由來: 網絡的深度對於計算機視覺任務非常重要,很多事實證明更深的網絡能獲得更好的效果。

原创 深度神經網絡的權重初始化

爲何需要初始化權重: 當x越大或者越小,對應的sigmod激活函數的梯度越小,收斂速度越慢。而我們目的是需要較大的梯度,最好x落入sigmod函數的近似線性區間,以提高訓練速度,所以權重的初始化將決定收斂的速度。   幾種權重初始化方法

原创 visualizing and understanding convolution network論文

本文通過將feature map可視化映射到像素空間,來解釋卷積網絡爲何表現的這麼好?怎樣提高卷積網絡? 首先解釋一下如何進行可視化的過程。 作者在文章中給出上圖,從右邊的部分看,從下至上,輸入上一pooling層的輸出,然後卷積,re

原创 fast rcnn論文

背景:rcnn、sppnet、deep ConvNets 面臨的挑戰: 1、必須處理大量的候選框 2、生成的候選區域必須重新調整,用以獲得更加精確的位置 分析rcnn和sppnet: rcnn缺點: 1、多步訓練 2、訓練花費大量的時

原创 混淆矩陣、分類評價指標

混淆矩陣   混淆矩陣基本上就是上表的表示,展示出實際的類別和分類後的得到的結果。(在目標識別中如何表現出背景那一類?) 抽象出來就是下面的列表: 從TP,TN、FN、FP 可以得到幾種指標:   1)查準率: 也可以理解爲(

原创 直方圖均衡化python代碼實現

圖像灰度變換中一個非常有用的例子就是直方圖均衡化。直方圖均衡化是指將一幅圖像的灰度直方圖變平,使變換後的圖像中每個灰度值的分佈概率都相同。在對圖像做進一步處理之前,直方圖均衡化通常是對圖像灰度值進行歸一化的一個非常好的方法,並且可以增強圖

原创 mnist整合mobilenet

#coding=utf8 #author by fffupeng #envirnment anaconda python 3.5 windows #這是一個將mnist中的卷積改成mobilenet的思想 import tensor

原创 tensorflow3 mnist2

#coding=utf8 import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.rea

原创 集成學習

一、概念 集成學習通過構建多個學習器,並通過某種策略對多個學習器進行組合。 所以集成學習存在兩個方面的問題: 1、如何得到若干個學習器 2、通過何種策略將其組合成一個強學習器 二、分類 首先解決問題1:如何得到若干弱分類器? 首先弱分類器

原创 tensorflow mnist入門

#下面做一個修改 #在一次全連接後再添加一層全連接W = tf.Variable(tf.zeros([784,300])) b = tf.Variable(tf.zeros([300])) t = tf.nn.sigmod(tf.mat

原创 c++存儲區域

2017/06/24 23:14 五大內存分區   在C++中,內存分成5個區,他們分別是堆、棧、自由存儲區、全局/靜態存儲區和常量存儲區。 棧,就是那些由編譯器在需要的時候分配,在不需要的時候自動清楚的變量的存儲區。裏面的變量通

原创 lec4 反向傳播和神經網絡1

神經網絡中如何前向和後向計算: 如下圖: 反向傳播時,使用鏈式法則,從後向前逐步更新權重。 下圖是有激活函數的情況:

原创 caffe 添加Python層

本文在mnist中添加Python層,作爲修改,在本文中不僅介紹如何添加層,還會涉及到修改層的一些思路。 首先在train_test_lenet.prototxt中添加MyPythonLayer一層,如下圖所示: 該層的主要作用就是將輸

原创 lec5 訓練神經網絡1

訓練網絡之前必須知道,訓練卷積網絡需要一定的數據量。 finetuning 採用預訓練的方式,然後用自己的數據訓練網絡的最後幾層。 (可以將卷積層作爲提取特徵的固定網絡,我們只需重新訓練分類層就可以了,當然如果有一定的數據量可以訓練較多

原创 hough變換

霍夫變換的目的:檢測直線(或者是簡單的圖形,例如矩形,圓等等) 例如在下圖中檢測車道:明顯這是直線的檢測,如果採用canny邊緣檢測,很明顯忽略了直線這個重要的信息。於是不如換一種思維方式。 在直角座標系中,直線通過y = k *