原创 Ubuntu 16.04 + Kinect for Xbox one(v2)驅動安裝

libfreenect2驅動安裝: 下載libfreenect2 驅動 $ git clone https://github.com/OpenKinect/libfreenect2.git $ cd libfreenect2 下載

原创 Ubuntu16.04+Ros+Usb攝像頭跑ORB SLAM2

分享一下我搭建ORB SLAM2環境的過程。 實驗環境:Ubuntu 16.04 + Ros Kinetic + Opencv3 + 羅技C170 usb攝像頭 安裝Ubuntu 16.04 參考:http://www.cnblogs

原创 ROS攝像頭標定

ROS官方提供了用於雙目和單目攝像頭標定的功能包——camera_calibration 1 camera_calibration 功能包 首先使用以下命令安裝攝像頭標定功能包camera_calibration: $ sudo ap

原创 YOLO v3 實現 Part4

這是關於從頭實現YOLO v3檢測器教程的第4部分。最後,我們實現了網絡的轉發。在這一部分中,我們使用對象置信度作爲檢測的閾值,然後使用非最大抑制。 本教程的代碼設計爲在Python 3.5和PyTorch 0.4上運行。教程完整代碼

原创 YOLO v3實現 Part2

這是關於從頭實現YOLO v3檢測器的教程的第2部分。在上一部分中,我解釋了YOLO是如何工作的,在這一部分中,我們將實現YOLO在PyTorch中使用的圖層。換句話說,這是我們創建模型構建塊的部分。 The code for thi

原创 YOLO v3實現 part3

這是關於從頭實現YOLO v3檢測器的第3部分。在上一部分中,我們實現了YOLO架構中使用的圖層,在這一部分中,我們將在PyTorch中實現YOLO的網絡架構,這樣我們就可以產生一個給定圖片的輸出。 我們的目標是設計網絡的前向傳播。

原创 YOLO v3實現 Part5

這是關於從頭實現YOLO v3檢測器的教程的第5部分。在上一部分中,我們實現了一個將網絡輸出轉換爲檢測預測的函數。有了可用的檢測器,剩下的就是創建輸入和輸出管道。 本教程的代碼設計爲在Python 3.5和PyTorch 0.4上運行

原创 YOLO v3實現 Prat1

目標檢測是近年來深度學習發展的一個重要領域。近年來,人們開發了許多目標檢測算法,其中包括YOLO、SSD、Mask RCNN和RetinaNet。 在過去的幾個月裏,我一直在一個研究實驗室致力於改進對象檢測。從這段經歷中,我最大的收穫

原创 YOLO原理:《You Only Look Once:Unified, Real-Time Object Detection》

YOLO原理:《You Only Look Once:Unified, Real-Time Object Detection》 引用:https://ziyubiti.github.io/2016/12/25/yolopaper/ 對與

原创 自動駕駛-車輛檢測(YOLO算法)

學習目標: ​ 1.在汽車檢測數據集上應用目標檢測 ​ 2.處理邊界框 運行以下單元下載有有助於實現車輛檢測的包和依賴項。 import argparse import os import matplotlib.pyplot as

原创 無人駕駛項目——交通標誌識別

在無人駕駛項目中,實現交通標誌識別是一項重要工作。本文以德國交通標誌數據集爲訓練對象,採用深度神經網絡LeNet架構處理圖像,實現交通標誌識別。具體處理過程包括包括:數據導入探索和可視化數據集數據預處理構建、訓練和測試模型架構採用該模型對

原创 tensorflow裏面用於改變圖像大小的函數

轉:https://blog.csdn.net/UESTC_C2_403/article/details/72699260 tensorflow裏面用於改變圖像大小的函數是tf.image.resize_images(image, (w

原创 Error when write_videofile with moviepy

在udacity項目P3中運行python drive.py model.h5 run1,根據run1中圖片生成視頻時出現如下錯誤: Traceback (most recent call last): File “…/anaco