原创 Caffe_DataLayers
1. Image Data - read raw images. 2. Database - read data from LEVELDB or LMDB. 3. HDF5 Input - read HDF5 data, allows
原创 Tensorflow學習文檔
目錄 TensorFlow 官方文檔中文版 TensorBoard:可視化學習 Tensorflow-Github TensorFlow layers模塊用法 TensorFlow 官方文檔中文版 http://www.tensorfly
原创 Caffe學習記錄
基礎 Caffe (Convolution Architecture For Feature Embedding (Extraction)) 網絡各層詳細解釋 http://caffe.berkeleyvision.org/tutoria
原创 Caffe_Net_and_Visualization
name: "LogReg" layer { name: "mnist" type: "Data" top: "data" top: "label" data_param { source: "input_leveldb" batch_s
原创 iteration,batch ,epoch
迭代(iteration):神經網絡在訓練數據集上跑一遍 batch size: 每次只使用數據集中的部分樣本 註釋:由於batch size的提出,兩個網絡比較性能的時候,若直接比較迭代的次數,這時已經沒有什麼意義了,因爲兩個網絡的ba
原创 Tensorflow_基礎
官方網址:www.tensorflow.org Github: github.com/tensorflow/tensorflow Models Depositary: github,com/tensorflow/models 1. 重
原创 神經網絡模型及其資料
每個模型下的網站資料爲他人優秀文章,總結以便後期查看 目錄 Heat Map Overfeat Dropout_Maxout Transfer learning Detectron VGG Alexnet Densenet Resne
原创 jupyter notebook 安裝Markdown插件
步驟1:pip install https://github.com/mli/notedown/tarball/master 步驟2:修改配置文件jupyter notebook --generate-config
原创 Caffe_VisionLayer
1. Convolution Layer - convolves the input image with a set of learnable filters, each producing one feature map in the
原创 Caffe_Activation_and_Neural
1. ReLU / Rectified-Linear and Leaky-ReLU - ReLU and LeakyReLU rectification. 2. PReLU - parametric ReLU. 3. ELU - expo
原创 Caffe_LossLayers
1. Multinomial Logistic Loss 2. Infogain Loss - a generalization of MultinomialLogisticLossLayer. 3. Softmax with Loss
原创 Latex1
約等於: \approx{} 空心: \mathcal{} 花體:\mathbb{} 下標正下方: \limits{} 空格: \quad
原创 Caffe_NormalizationLayer
1. Local Response Normalization (LRN) - performs a kind of “lateral inhibition” by normalizing over local input regions
原创 pytorch資料總結
torch.optim.lr_scheduler:調整學習率 https://blog.csdn.net/qyhaill/article/details/103043637 Pytorch 使用不同版本的 cuda https://www