1.原汁原味的訓練
2.修改 Darknet 和 損失函數的訓練
3.可以試試 mobilenet 提高實時性。
4.
原汁原味的訓練過程記錄:
1.用kitti 數據集獲得了 自己的 anchors
2.
3.
還是用 初始的聚類
參考自 https://blog.csdn.net/syysyf99/article/details/93207020
1. 安裝並測試
1.1 下載
git clone https://github.com/pjreddie/darknet.git
1.2 修改 Makefile
GPU=1 # 1.
CUDNN=1 # 2.
OPENCV=0 # 可選擇修改,變1的話需要裝opencv,麻煩
OPENMP=0
DEBUG=0
# 3 根據自己的計算能力,修改 在此添加了 61 那行
ARCH= -gencode arch=compute_30,code=sm_30 \
-gencode arch=compute_35,code=sm_35 \
-gencode arch=compute_50,code=[sm_50,compute_50] \
-gencode arch=compute_52,code=[sm_52,compute_52] \
-gencode arch=compute_61,code=[sm_61,compute_61]
# -gencode arch=compute_20,code=[sm_20,sm_21] \ This one is deprecated?
# This is what I use, uncomment if you know your arch and want to specify
# ARCH= -gencode arch=compute_52,code=compute_52
VPATH=./src/:./examples
SLIB=libdarknet.so
ALIB=libdarknet.a
EXEC=darknet
OBJDIR=./obj/
CC=gcc
CPP=g++
NVCC=/usr/local/cuda/bin/nvcc # 4.
AR=ar
ARFLAGS=rcs
OPTS=-Ofast
LDFLAGS= -lm -pthread
COMMON= -Iinclude/ -Isrc/
CFLAGS=-Wall -Wno-unused-result -Wno-unknown-pragmas -Wfatal-errors -fPIC
ifeq ($(OPENMP), 1)
CFLAGS+= -fopenmp
endif
ifeq ($(DEBUG), 1)
OPTS=-O0 -g
endif
CFLAGS+=$(OPTS)
ifeq ($(OPENCV), 1)
COMMON+= -DOPENCV
CFLAGS+= -DOPENCV
LDFLAGS+= `pkg-config --libs opencv` -lstdc++
COMMON+= `pkg-config --cflags opencv`
endif
ifeq ($(GPU), 1)
COMMON+= -DGPU -I/usr/local/cuda/include/ # 5 貌似並沒變
CFLAGS+= -DGPU
LDFLAGS+= -L/usr/local/cuda/lib64 -lcuda -lcudart -lcublas -lcurand 6.貌似也沒變
endif
ifeq ($(CUDNN), 1)
COMMON+= -DCUDNN
CFLAGS+= -DCUDNN
LDFLAGS+= -lcudnn
endif
OBJ=gemm.o utils.o cuda.o deconvolutional_layer.o convolutional_layer.o list.o image.o activations.o im2col.o col2im.o blas.o crop_layer.o dropout_layer.o maxpool_layer.o softmax_layer.o data.o matrix.o network.o connected_layer.o cost_layer.o parser.o option_list.o detection_layer.o route_layer.o upsample_layer.o box.o normalization_layer.o avgpool_layer.o layer.o local_layer.o shortcut_layer.o logistic_layer.o activation_layer.o rnn_layer.o gru_layer.o crnn_layer.o demo.o batchnorm_layer.o region_layer.o reorg_layer.o tree.o lstm_layer.o l2norm_layer.o yolo_layer.o iseg_layer.o image_opencv.o
EXECOBJA=captcha.o lsd.o super.o art.o tag.o cifar.o go.o rnn.o segmenter.o regressor.o classifier.o coco.o yolo.o detector.o nightmare.o instance-segmenter.o darknet.o
ifeq ($(GPU), 1)
LDFLAGS+= -lstdc++
OBJ+=convolutional_kernels.o deconvolutional_kernels.o activation_kernels.o im2col_kernels.o col2im_kernels.o blas_kernels.o crop_layer_kernels.o dropout_layer_kernels.o maxpool_layer_kernels.o avgpool_layer_kernels.o
endif
EXECOBJ = $(addprefix $(OBJDIR), $(EXECOBJA))
OBJS = $(addprefix $(OBJDIR), $(OBJ))
DEPS = $(wildcard src/*.h) Makefile include/darknet.h
all: obj backup results $(SLIB) $(ALIB) $(EXEC)
#all: obj results $(SLIB) $(ALIB) $(EXEC)
$(EXEC): $(EXECOBJ) $(ALIB)
$(CC) $(COMMON) $(CFLAGS) $^ -o $@ $(LDFLAGS) $(ALIB)
$(ALIB): $(OBJS)
$(AR) $(ARFLAGS) $@ $^
$(SLIB): $(OBJS)
$(CC) $(CFLAGS) -shared $^ -o $@ $(LDFLAGS)
$(OBJDIR)%.o: %.cpp $(DEPS)
$(CPP) $(COMMON) $(CFLAGS) -c $< -o $@
$(OBJDIR)%.o: %.c $(DEPS)
$(CC) $(COMMON) $(CFLAGS) -c $< -o $@
$(OBJDIR)%.o: %.cu $(DEPS)
$(NVCC) $(ARCH) $(COMMON) --compiler-options "$(CFLAGS)" -c $< -o $@
obj:
mkdir -p obj
backup:
mkdir -p backup
results:
mkdir -p results
.PHONY: clean
clean:
rm -rf $(OBJS) $(SLIB) $(ALIB) $(EXEC) $(EXECOBJ) $(OBJDIR)/*
1.3 打開終端
1. 重新編譯的話先
make clean
再
make # 第一次編譯,直接 make 即可
1.4 查看是否成功
./darknet
出現
usage: ./darknet <function>
即成功。
1.5 下載yolov3.weights,鏈接: https://pan.baidu.com/s/1dEOqIoYW_AWeuRQpPxZzFQ 提取碼: x72t
1.6 測試命令
./darknet detect cfg/yolov3.cfg yolov3.weights data/dog.jpg
./darknet detector test cfg/coco.data cfg/yolov3.cfg yolov3.weights data/dog.jpg
'''
1. 基於yolo.weights模型參數測試多張圖片
不需要給定測試圖片的路徑,直接輸入以下指令,然後程序會提示你輸入測試圖像路徑,直到ctrl+c退出程序。
'''
./darknet detect cfg/yolo.cfg yolo.weights
'''
2.
基於yolo.weights模型參數,使用“-thresh"參數控制顯示的bounding-box個數,darknet默認只顯示被檢測的物體中confidence大於或者等於0.25的bounding-box,可以通過參數-thresh<value>來改變,例如”-thresh 0"表示顯示出所有的bounding-box。
'''
'''
3. 基於 yolo.weights 模型參數來測試攝像頭
實時攝像頭檢測 / webcam檢測,使用到cuda和opencv編譯darknet。
'''
./darknet detector demo cfg/coco.data cfg/yolov3.cfg yolov3.weights
'''
4. 基於 yolo.weights 模型參數來測試video
video檢測,使用opencv檢測視頻。
'''
./darknet detector demo cfg/coco.data cfg/yolov3.cfg yolov3.weights <video file>
2.訓練過程詳細記錄
訓練準備過程見另一篇博客。
訓練代碼:14,37, 8,77, 23,53, 18,136, 37,76, 60,108, 38,261, 93,173, 147,291
cd darknet
./darknet detector train wp_data/cfg/voc.data wp_data/cfg/yolov3-voc.cfg 2>&1 | tee wp_data/visualization/train_yolov3.log #保存訓練日誌
#上條代碼解釋:./darknet表示編譯後的執行文件,detector train是指令,train表示是訓練的過程。wp_data/cfg/voc.data表示的是wp_data/cfg路徑下的文件voc.data。wp_data/cfg/yolov3-voc.cfg表示的是wp_data/cfg路徑下的文件yolov3-voc.cfg。2>&1 | tee wp_data/visualization/train_yolov3.log表示保存日誌,爲了後續繪製loss曲線。若沒有這條語句就不會保存日誌。
./darknet detector train kitti_data/kitti.data cfg/yolov3-kitti.cfg darknet53.conv.74 2>&1 | tee log/train_yolov3.log
3. 根據anchor設置的不同,根據kitti數據集擬合的anchors,訓練了8800 batch , 5000 7500 8800 0.001,0.0001,0.00001. loss下降到了0.8 左右。
yolo 本來的 anchor 訓練了2300 batch。 現在維持在1.5 左右的loss,lr=0.001. 還需要繼續訓練。
暫時。。。