Darknet運行yolo理解和錯誤記錄

Darknet運行yolo理解和錯誤記錄

對於darknet來說,它是一個封裝十分嚴密的系統,對外的接口也十分的嚴格,這就導致它不夠靈活,然而好在它有數據轉化的demo可以很好兼容,改掉缺點。

從安裝darknet開始: https://pjreddie.com/darknet/yolo/ YOLO官網可以很快的入門下載

在這裏插入圖片描述

這是我們模擬訓練採集得到的數據,iamges代表圖片,labels代表標籤,xml格式

在這裏插入圖片描述

我們需要知道兩件事:

一.它的voc.data配置文件只傳送了訓練集的X,也就是圖片,沒有標籤這是怎麼回事呢?
(train_names.txt中是訓練集圖片的絕對路徑,test_names.txt是測試集圖片的絕對路徑)
在這裏插入圖片描述
我們可以看到train.txt中的內容,是由每一張圖片的路徑組成的,路徑中包含了一個重要信息,images,也就是圖片,
重點到了,在其封裝的代碼中有一個操作,它會搜索路徑中的 images 字符串,並用 labels 代替 ,並將圖片的後綴由jpg,改爲txt,
所以我們首先應該有相對應的文件
這就找到了這個圖片對應的標籤Y

在這裏插入圖片描述

二.我們通常得到的標籤是xml後綴的標籤,但網絡接受的卻是txt爲後綴的標籤,這就需要我們對標籤進行一系列的處理。
在這裏插入圖片描述
有幾種調節方式:
①:使用自編代碼調節

import xml.etree.ElementTree as ET



classes = ["person", "bicycle", "motorbike", "car", "bus", "truck"]





def convert(size, box):

    dw = 1. / size[0]

    dh = 1. / size[1]

    x = (box[0] + box[1]) / 2.0

    y = (box[2] + box[3]) / 2.0

    w = box[1] - box[0]

    h = box[3] - box[2]

    x = x * dw

    w = w * dw

    y = y * dh

    h = h * dh

    return (x, y, w, h)





def convert_annotation(image_id):

    in_file = open(r'/home/******/data/i_and_l/labels_xml/%s.xml' % (image_id))



    out_file = open(r'/home/******/data/i_and_l/labels/%s.txt' % (image_id), 'w')  # 生成txt格式文件

    tree = ET.parse(in_file)

    root = tree.getroot()

    size = root.find('size')

    w = int(size.find('width').text)

    h = int(size.find('height').text)



    for obj in root.iter('object'):

        cls = obj.find('name').text

        if cls not in classes:

            continue

        cls_id = classes.index(cls)

        xmlbox = obj.find('bndbox')

        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),

             float(xmlbox.find('ymax').text))

        bb = convert((w, h), b)

        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')





image_ids_train = len(open(r'/home/******/data/train_names.txt').read().strip().split())



# image_ids_val = open('/home/*****/darknet/scripts/VOCdevkit/voc/list').read().strip().split()





list_file_train = open('boat_train.txt', 'w')

list_file_val = open('boat_val.txt', 'w')



for image_id in range(image_ids_train):

    list_file_train.write(r'/home/******/data/i_and_l/images/%s.jpg\n' % (image_id))

    convert_annotation(image_id)

list_file_train.close()



# for image_id in image_ids_val:



#    list_file_val.write('/home/*****/darknet/boat_detect/images/%s.jpg\n'%(image_id))

#    convert_annotation(image_id)

# list_file_val.close()

②:使用darknet自帶py文件調節
https://blog.csdn.net/weixin_42731241/article/details/81352013 這裏有一個網址可以使用

注意
在我的博客文件中有一個叫 create_trian_txt.py 的demo
我們可以使用它生成txt文件

將圖片分爲訓練集和驗證集的時候,可以直接使用它,調節與file_num比較的數,
就可以將圖片分爲訓練集train.txt 和 val.txt

(思路清晰者也可以使用 ls -R 路徑/*.jpg > train.txt )
在這裏插入圖片描述

之後就是上面網址中說的調用 voc_label.py
需要註釋圖中這一行,並且刪除掉圖中紅行。

在這裏插入圖片描述

還需註釋掉最後兩行
在這裏插入圖片描述

這樣數據的處理就結束了

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章