原创 Caffe_DataLayers

1. Image Data - read raw images. 2. Database - read data from LEVELDB or LMDB. 3. HDF5 Input - read HDF5 data, allows

原创 Tensorflow學習文檔

目錄 TensorFlow 官方文檔中文版 TensorBoard:可視化學習 Tensorflow-Github TensorFlow layers模塊用法 TensorFlow 官方文檔中文版 http://www.tensorfly

原创 Caffe學習記錄

基礎 Caffe (Convolution Architecture For Feature Embedding (Extraction)) 網絡各層詳細解釋 http://caffe.berkeleyvision.org/tutoria

原创 Caffe_Net_and_Visualization

name: "LogReg" layer { name: "mnist" type: "Data" top: "data" top: "label" data_param { source: "input_leveldb" batch_s

原创 iteration,batch ,epoch

迭代(iteration):神經網絡在訓練數據集上跑一遍 batch size: 每次只使用數據集中的部分樣本 註釋:由於batch size的提出,兩個網絡比較性能的時候,若直接比較迭代的次數,這時已經沒有什麼意義了,因爲兩個網絡的ba

原创 Tensorflow_基礎

官方網址:www.tensorflow.org Github: github.com/tensorflow/tensorflow Models Depositary: github,com/tensorflow/models   1. 重

原创 神經網絡模型及其資料

每個模型下的網站資料爲他人優秀文章,總結以便後期查看   目錄 Heat Map Overfeat Dropout_Maxout Transfer learning Detectron VGG Alexnet Densenet Resne

原创 jupyter notebook 安裝Markdown插件

步驟1:pip install https://github.com/mli/notedown/tarball/master 步驟2:修改配置文件jupyter notebook --generate-config            

原创 Caffe_VisionLayer

1. Convolution Layer - convolves the input image with a set of learnable filters, each producing one feature map in the

原创 Caffe_Activation_and_Neural

1. ReLU / Rectified-Linear and Leaky-ReLU - ReLU and LeakyReLU rectification. 2. PReLU - parametric ReLU. 3. ELU - expo

原创 Caffe_LossLayers

1. Multinomial Logistic Loss 2. Infogain Loss - a generalization of MultinomialLogisticLossLayer. 3. Softmax with Loss

原创 Latex1

約等於: \approx{} 空心: \mathcal{} 花體:\mathbb{} 下標正下方: \limits{} 空格: \quad  

原创 Caffe_NormalizationLayer

1. Local Response Normalization (LRN) - performs a kind of “lateral inhibition” by normalizing over local input regions

原创 pytorch資料總結

torch.optim.lr_scheduler:調整學習率 https://blog.csdn.net/qyhaill/article/details/103043637 Pytorch 使用不同版本的 cuda https://www