原创 caffe用python產生prototxt文件

習慣了tensorflow的寫網絡結構的模式,現在要用caffe,但是caffe裏面的網絡結構是配置文件形式,如果網絡較大,那麼配置文件也會較大,那麼工作量會較大,好在可以用python生成 需要注意的是下面參數的傳遞和初始化形

原创 selu激活函數和自歸一化網絡(SNN)

最近出現了一個新的激活函數:縮放指數線性單元(scaled exponential linear units,selu),根據該激活函數得到的網絡具有自歸一化功能。 首先給出文章地址:https://arxiv.org/pdf/1

原创 tf moving average

tf中用到movingaverage的主要有兩處,一個是數據的批處理,更新均值和方差時,一個是對訓練參數的更新時   1數據批處理 每一層數據的批處理,批處理的對象是每一層,一層中的某個特徵向量作爲一個特徵點 對批處理時,會有一個均值與方

原创 tensorflow調參總結(不斷更新中)

1 批處理 tf在進行批處理時,會需要用到均值與方差數據,而在批處理中使用的均值與方差不是單純的使用當前批數據的均值與方差,而是對會根據當前批均值方差和上一批維護的均值方差進行指數衰減求一個新的均值方差,而對slim中的batch_nor

原创 caffe group參數

        caffe Convolution層的convolution_param參數字典中有一個group參數,其意思是將對應的輸入通道與輸出通道數進行分組,比如輸入數據大小爲 90x100x100x32 90是數據批大小 100

原创 ROC曲線及facenet中的使用

ROC(Receiver Operating Characteristic)曲線,以及AUC(Area Under Curve),常用來評價一個二值分類器的優劣,ROC的橫軸爲false positive rate,FPR,也就是

原创 ptb_producer註釋

def ptb_producer(raw_data, batch_size, num_steps, name=None): """Iterate on the raw PTB data. This chunks up raw_d

原创 文章記錄Group Sampling+freeanchor

1 Group Sampling for scale invariant face detection 問題,訓練樣本中存在兩種不均衡: 1 正負樣本不均衡,負樣本個數遠大於正樣本個數。 2 不同尺度上訓練樣本不均衡:比如ret

原创 人工智能相關術語

縮寫 英語 漢語 A Activation Function 激活函數 Adversarial Networks 對抗網絡 Affine Layer 仿射層

原创 facenet chinese whispers(face cluster)

對於facenet模型,可以使用facenet對人臉進行embedding,但是如果想對人臉進行聚類,而你不知道有幾個人,那怎麼辦?這種情況可以應用

原创 facenet_train.py代碼註釋

"""Training a face recognizer with TensorFlow based on the FaceNet paper FaceNet: A Unified Embedding for Face Recognit

原创 linux系統上編譯arm版的protobuf庫

從官網下載protobuf-2.6.0.tar.gz. 第一步是編譯出x86版的庫和protoc, 按順序執行下列命令 tar -zxvf protobuf-2.6.0.tar.gz cd protobuf-2.6.0 ./config

原创 tensorflow 恢復指定層與不同層指定不同學習率

#tensorflow 中從ckpt文件中恢復指定的層或將指定的層不進行恢復: #tensorflow 中不同的layer指定不同的學習率 with tf.Graph().as_default(): #存放的是需要恢復的層參數

原创 facenet_train_classifier.py代碼註釋

"""Training a face recognizer with TensorFlow based on the FaceNet paper FaceNet: A Unified Embedding for Face Recognit

原创 數據挖掘與深度學習

        本人正在從事於深度學習相關的工作,有感於深度學習強大的特徵表達能力,本以爲深度學習會在各行各業的人工智能中能夠發光發熱,但是發現在數