原创 mxnet學習(8):Trainer

class mxnet.gluon.Trainer(params, optimizer, optimizer_params = None, kvstore = ‘device’, compression_params = None

原创 mxnet學習(5):模型參數

模型參數選擇 class mxnet.gluon.Block(prefix = None, params = None) 其中collect_params()是該類下面的一個成員函數,而該類是所有的網絡和模型的基類。該函數返回一個

原创 論文:Aurora Guard_ Real-Time Face Anti-Spoofing via Light Reflection

AG 騰訊優圖 Main Idea 本文提出了一種簡單高效的anti-spoofing方法,不需要特別的硬件設備。利用了多幀RGB圖在不同光照條件下具有不同的反射。提出並定義了一種光參數序列light CAPTCHA,應用到人臉上

原创 mxnet學習(9):使用gluon接口讀取symbol預訓練模型finetune

使用symbol得到的模型或者gluon的hybridize之後的模型包括一個.json文件(網絡結構)和.params文件(參數),gluon可以使用net = gluon.SymbolBlock.imports(json, ['d

原创 python筆記(4): os.path模塊

os.path 模塊主要用於獲取文件的屬性。以下是 os.path 模塊的幾種常用方法: os.path.abspath(path) 返回絕對路徑 os.path.basename(path) 返回文件名 os.pa

原创 mxnet學習(7):數據載入方式

1.使用ImageRecordIter讀取rec mxnet.io.ImageRecordIter(*args, **kwargs) 該方式只能從rec文件讀取batches,相比於定製化的輸入方式,該方式不夠靈活,但是速度很快。如果

原创 mxnet學習(6):使用GPU進行訓練

1.使用as_in_context() ctx是需要載入的gpu/cpu # Load data and label is the right context data = data.as_in_context(ctx) labe

原创 mxnet學習(4): recordio

reference:https://mxnet.incubator.apache.org/api/python/io/io.html#mxnet.recordio.MXRecordIO 1.class mxnet.recordio.M

原创 mxnet學習(3):autograd

reference:https://mxnet.incubator.apache.org/api/python/autograd/autograd.html 1.基本操作 使用x.attach_grad()爲梯度分配空間,調用with

原创 mxnet學習(2):Tensor和Normalize

reference:https://mxnet.incubator.apache.org/api/python/gluon/data.html vision下面主要有一些數據集和transforms transforms可以在訓練數據

原创 maxnet學習(1):image函數

reference:https://mxnet.incubator.apache.org/api/python/image/image.html#mxnet.image.imread 注意這裏不是gluon的函數 mxnet.ima

原创 從源碼解讀Large-Margin Softmax Loss for Convolutional Neural Networks

從源碼解讀Large-Margin Softmax Loss for Convolutional Neural Networks 1.論文回顧 論文地址:https://arxiv.org/pdf/1612.02295.pdf L-s

原创 pytorch學習筆記(2)-使用自定義txt文件讀取數據

import os import torch from PIL import Image from torch.utils.data import Dataset from torchvision import datasets, m

原创 pytorch學習筆記(1)-optimizer.step()和scheduler.step()

optimizer.step()和scheduler.step()的區別 optimizer.step()通常用在每個mini-batch之中,而scheduler.step()通常用在epoch裏面,但是不絕對,可以根據具體的需求來

原创 caffe 源碼解讀(1)

caffe 源碼解讀 Part1 1. 基礎知識 inline C++關鍵字,在函數聲明或定義中函數返回類型前加上關鍵字inline,即可以把函數指定爲在計算機科學中,內聯函數(有時稱作在線函數或編譯時期展開函數)是一種編程語言