原创 深度學習設計

損失函數設計: 1、目標檢測領域:不提倡使用預測框座標與GT座標的差值進行損失函數統計,因爲座標差值會受座標尺寸大小影響,座標 尺寸大的時候,差值相對大,座標尺寸小,差值相對小。 改進:使用IOU,IOU不受座標尺寸因素的影響。 (兩種座

原创 Python+OpenCV教程4:圖像基本操作

目標 訪問和修改圖片像素點的值 獲取圖片的寬、高、通道數等屬性 瞭解感興趣區域ROI 分離和合並圖像通道 教程 獲取和修改像素點值 我們先讀入一張圖片:   import cv2 img = cv2.imread('lena.jpg'

原创 pytorch實現 分組卷積 深度可分離卷積

常規卷積:   常規卷積需要的參數量:Cin​×K×K×Cout​ 分組卷積: 分組卷積需要的計算量 : Cin​×K×K×Cout​ / g 深度可分離卷積(Depthwise Separable Convolution): 需

原创 文字檢測篇-傳統篇

       文字檢測是文字識別過程中的一個非常重要的環節,文字檢測的主要目標是將圖片中的文字區域位置檢測出來,以便於進行後面的文字識別,只有找到了文本所在區域,才能對其內容進行識別。        文字檢測的場景主要分爲兩種,一種是簡單

原创 Python+OpenCV教程13:輪廓

目標 瞭解輪廓概念 尋找並繪製輪廓 OpenCV函數:cv2.findContours(), cv2.drawContours() 教程 啥叫輪廓 輪廓是一系列相連的點組成的曲線,代表了物體的基本外形。 談起輪廓不免想到邊緣,它們確實很像

原创 A Beginner guide to Deep Learning based Semantic Segmentation using Keras

A Beginner's guide to Deep Learning based Semantic Segmentation using Keras Divam Gupta  06 Jun 2019   Pixel-wise imag

原创 使用 深度可分離卷積(Depthwise Separable Convolution) 改造CRNN網絡

深度可分離卷積(Depthwise Separable Convolution)能夠使得網絡的參數大幅度減少,本文擬在改造CRNN,看看參數量的變化情況: 改造前crnn網絡的cnn部分網絡代碼: class CNN0(nn.Modul

原创 暗通道去霧算法

https://blog.csdn.net/wsp_1138886114/article/details/84228939### https://www.cnblogs.com/echoboy/p/10924868.html 針對天空去霧

原创 使用kmean進行圖像分割 使用CRFs進行分割後處理

存在需要解決的問題: 1、kmean是隨機聚類的,當設置K值後,每次聚類完後分配的標籤也是隨機的,如果直接根據聚類後的標籤給着色,客戶每一次聚類後發現顏色都跟上一次不一樣,又開始嗶哩嗶哩了; 2、可通過設置kmean的參數cv2.KMEA

原创 深度學習評估參數

True Positive(TP):原來是正樣本,預測結果爲正樣本;目標識別中,把目標給框出來了 True Negative(TN):原來是負樣本,預測結果爲負樣本;目標識別中,負樣本就是背景之類 False Positive(FP):原

原创 李宏毅深度學習課程筆記 -卷積神經網絡

1、卷積神經網絡特適合image處理,其設計理念: 現象1: 現象2: 現象3: 總結summary: (1)對於圖像中的patterns(比如貓的耳朵,嘴巴等),通常比整張圖像小很多。神經網絡的每一個neuron,相當於一個ba

原创 from scratch implement crnn using pytorch :讀取訓練數據

知識點: python特殊函數 __call__() 實現類變成一個可調用對象 class Person(object): def __init__(self, name, gender): self.nam

原创 使用pytorch實現crnn

改動點: (1)把傳統的卷積改造成深度可分離卷積; (2)使用pytorch實現的ctc,不再使用百度開源的warpctc,主要原因是本人使用Windows來開發調試,編譯warpctc貌似很麻煩;   crnn網絡實現代碼: clas

原创 pyorch 通過前三個數預測後一個數的模型代碼demo

相關知識: 使用scatter_進行one-hot編碼 scatter_(self, dim, index, value)將src中數據根據index中的索引按照dim的方向填入value值,這個函數可以從轉換成onehot編碼來理解

原创 pytorch 實現crnn

知識點: torch.nn.ReLU(inplace=True)中inplace的作用 在文檔中解釋是: 參數: inplace-選擇是否進行覆蓋運算 意思是是否將得到的值計算得到的值覆蓋之前的值,比如:x = x +1即對原值進行操