yolov3 訓練過程

1.原汁原味的訓練

2.修改 Darknet 和 損失函數的訓練

3.可以試試 mobilenet 提高實時性。

4.

 

原汁原味的訓練過程記錄:

1.用kitti 數據集獲得了 自己的 anchors 

2.

3.

 

 

還是用 初始的聚類




參考自 https://blog.csdn.net/syysyf99/article/details/93207020

1. 安裝並測試

1.1 下載

git clone https://github.com/pjreddie/darknet.git

1.2 修改 Makefile

GPU=1       # 1.
CUDNN=1     # 2.
OPENCV=0    # 可選擇修改,變1的話需要裝opencv,麻煩
OPENMP=0
DEBUG=0

# 3  根據自己的計算能力,修改 在此添加了 61 那行
ARCH= -gencode arch=compute_30,code=sm_30 \
      -gencode arch=compute_35,code=sm_35 \
      -gencode arch=compute_50,code=[sm_50,compute_50] \
      -gencode arch=compute_52,code=[sm_52,compute_52] \
      -gencode arch=compute_61,code=[sm_61,compute_61]
#      -gencode arch=compute_20,code=[sm_20,sm_21] \ This one is deprecated?

# This is what I use, uncomment if you know your arch and want to specify
# ARCH= -gencode arch=compute_52,code=compute_52

VPATH=./src/:./examples
SLIB=libdarknet.so
ALIB=libdarknet.a
EXEC=darknet
OBJDIR=./obj/

CC=gcc
CPP=g++
NVCC=/usr/local/cuda/bin/nvcc  # 4.
AR=ar
ARFLAGS=rcs
OPTS=-Ofast
LDFLAGS= -lm -pthread 
COMMON= -Iinclude/ -Isrc/
CFLAGS=-Wall -Wno-unused-result -Wno-unknown-pragmas -Wfatal-errors -fPIC

ifeq ($(OPENMP), 1) 
CFLAGS+= -fopenmp
endif

ifeq ($(DEBUG), 1) 
OPTS=-O0 -g
endif

CFLAGS+=$(OPTS)

ifeq ($(OPENCV), 1) 
COMMON+= -DOPENCV
CFLAGS+= -DOPENCV
LDFLAGS+= `pkg-config --libs opencv` -lstdc++
COMMON+= `pkg-config --cflags opencv` 
endif

ifeq ($(GPU), 1) 
COMMON+= -DGPU -I/usr/local/cuda/include/        # 5 貌似並沒變
CFLAGS+= -DGPU
LDFLAGS+= -L/usr/local/cuda/lib64 -lcuda -lcudart -lcublas -lcurand   6.貌似也沒變
endif

ifeq ($(CUDNN), 1) 
COMMON+= -DCUDNN 
CFLAGS+= -DCUDNN
LDFLAGS+= -lcudnn
endif

OBJ=gemm.o utils.o cuda.o deconvolutional_layer.o convolutional_layer.o list.o image.o activations.o im2col.o col2im.o blas.o crop_layer.o dropout_layer.o maxpool_layer.o softmax_layer.o data.o matrix.o network.o connected_layer.o cost_layer.o parser.o option_list.o detection_layer.o route_layer.o upsample_layer.o box.o normalization_layer.o avgpool_layer.o layer.o local_layer.o shortcut_layer.o logistic_layer.o activation_layer.o rnn_layer.o gru_layer.o crnn_layer.o demo.o batchnorm_layer.o region_layer.o reorg_layer.o tree.o  lstm_layer.o l2norm_layer.o yolo_layer.o iseg_layer.o image_opencv.o
EXECOBJA=captcha.o lsd.o super.o art.o tag.o cifar.o go.o rnn.o segmenter.o regressor.o classifier.o coco.o yolo.o detector.o nightmare.o instance-segmenter.o darknet.o
ifeq ($(GPU), 1) 
LDFLAGS+= -lstdc++ 
OBJ+=convolutional_kernels.o deconvolutional_kernels.o activation_kernels.o im2col_kernels.o col2im_kernels.o blas_kernels.o crop_layer_kernels.o dropout_layer_kernels.o maxpool_layer_kernels.o avgpool_layer_kernels.o
endif

EXECOBJ = $(addprefix $(OBJDIR), $(EXECOBJA))
OBJS = $(addprefix $(OBJDIR), $(OBJ))
DEPS = $(wildcard src/*.h) Makefile include/darknet.h

all: obj backup results $(SLIB) $(ALIB) $(EXEC)
#all: obj  results $(SLIB) $(ALIB) $(EXEC)


$(EXEC): $(EXECOBJ) $(ALIB)
	$(CC) $(COMMON) $(CFLAGS) $^ -o $@ $(LDFLAGS) $(ALIB)

$(ALIB): $(OBJS)
	$(AR) $(ARFLAGS) $@ $^

$(SLIB): $(OBJS)
	$(CC) $(CFLAGS) -shared $^ -o $@ $(LDFLAGS)

$(OBJDIR)%.o: %.cpp $(DEPS)
	$(CPP) $(COMMON) $(CFLAGS) -c $< -o $@

$(OBJDIR)%.o: %.c $(DEPS)
	$(CC) $(COMMON) $(CFLAGS) -c $< -o $@

$(OBJDIR)%.o: %.cu $(DEPS)
	$(NVCC) $(ARCH) $(COMMON) --compiler-options "$(CFLAGS)" -c $< -o $@

obj:
	mkdir -p obj
backup:
	mkdir -p backup
results:
	mkdir -p results

.PHONY: clean

clean:
	rm -rf $(OBJS) $(SLIB) $(ALIB) $(EXEC) $(EXECOBJ) $(OBJDIR)/*

1.3 打開終端 

1. 重新編譯的話先
make clean
再
make  # 第一次編譯,直接 make 即可

1.4 查看是否成功

./darknet

出現

usage: ./darknet <function>

即成功。

1.5 下載yolov3.weights,鏈接: https://pan.baidu.com/s/1dEOqIoYW_AWeuRQpPxZzFQ 提取碼: x72t

1.6 測試命令

./darknet detect cfg/yolov3.cfg yolov3.weights data/dog.jpg
./darknet detector test cfg/coco.data cfg/yolov3.cfg yolov3.weights data/dog.jpg
'''
1. 基於yolo.weights模型參數測試多張圖片
不需要給定測試圖片的路徑,直接輸入以下指令,然後程序會提示你輸入測試圖像路徑,直到ctrl+c退出程序。
'''
./darknet detect cfg/yolo.cfg yolo.weights

'''
2.
基於yolo.weights模型參數,使用“-thresh"參數控制顯示的bounding-box個數,darknet默認只顯示被檢測的物體中confidence大於或者等於0.25的bounding-box,可以通過參數-thresh<value>來改變,例如”-thresh 0"表示顯示出所有的bounding-box。
'''

'''
3. 基於 yolo.weights 模型參數來測試攝像頭
實時攝像頭檢測 / webcam檢測,使用到cuda和opencv編譯darknet。
'''
./darknet detector demo cfg/coco.data cfg/yolov3.cfg yolov3.weights

'''
4. 基於 yolo.weights 模型參數來測試video
video檢測,使用opencv檢測視頻。
'''
./darknet detector demo cfg/coco.data cfg/yolov3.cfg yolov3.weights <video file>

 

2.訓練過程詳細記錄

訓練準備過程見另一篇博客。

訓練代碼:14,37,  8,77,  23,53,  18,136,  37,76,  60,108,  38,261,  93,173,  147,291

cd darknet
./darknet detector train wp_data/cfg/voc.data wp_data/cfg/yolov3-voc.cfg 2>&1 | tee wp_data/visualization/train_yolov3.log #保存訓練日誌
#上條代碼解釋:./darknet表示編譯後的執行文件,detector train是指令,train表示是訓練的過程。wp_data/cfg/voc.data表示的是wp_data/cfg路徑下的文件voc.data。wp_data/cfg/yolov3-voc.cfg表示的是wp_data/cfg路徑下的文件yolov3-voc.cfg。2>&1 | tee wp_data/visualization/train_yolov3.log表示保存日誌,爲了後續繪製loss曲線。若沒有這條語句就不會保存日誌。

./darknet detector train kitti_data/kitti.data cfg/yolov3-kitti.cfg darknet53.conv.74 2>&1 | tee log/train_yolov3.log

3. 根據anchor設置的不同,根據kitti數據集擬合的anchors,訓練了8800 batch , 5000 7500 8800  0.001,0.0001,0.00001.  loss下降到了0.8 左右。

yolo 本來的 anchor 訓練了2300 batch。 現在維持在1.5 左右的loss,lr=0.001. 還需要繼續訓練。

暫時。。。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章