原创 深度學習設計
損失函數設計: 1、目標檢測領域:不提倡使用預測框座標與GT座標的差值進行損失函數統計,因爲座標差值會受座標尺寸大小影響,座標 尺寸大的時候,差值相對大,座標尺寸小,差值相對小。 改進:使用IOU,IOU不受座標尺寸因素的影響。 (兩種座
原创 Python+OpenCV教程4:圖像基本操作
目標 訪問和修改圖片像素點的值 獲取圖片的寬、高、通道數等屬性 瞭解感興趣區域ROI 分離和合並圖像通道 教程 獲取和修改像素點值 我們先讀入一張圖片: import cv2 img = cv2.imread('lena.jpg'
原创 pytorch實現 分組卷積 深度可分離卷積
常規卷積: 常規卷積需要的參數量:Cin×K×K×Cout 分組卷積: 分組卷積需要的計算量 : Cin×K×K×Cout / g 深度可分離卷積(Depthwise Separable Convolution): 需
原创 文字檢測篇-傳統篇
文字檢測是文字識別過程中的一個非常重要的環節,文字檢測的主要目標是將圖片中的文字區域位置檢測出來,以便於進行後面的文字識別,只有找到了文本所在區域,才能對其內容進行識別。 文字檢測的場景主要分爲兩種,一種是簡單
原创 Python+OpenCV教程13:輪廓
目標 瞭解輪廓概念 尋找並繪製輪廓 OpenCV函數:cv2.findContours(), cv2.drawContours() 教程 啥叫輪廓 輪廓是一系列相連的點組成的曲線,代表了物體的基本外形。 談起輪廓不免想到邊緣,它們確實很像
原创 A Beginner guide to Deep Learning based Semantic Segmentation using Keras
A Beginner's guide to Deep Learning based Semantic Segmentation using Keras Divam Gupta 06 Jun 2019 Pixel-wise imag
原创 使用 深度可分離卷積(Depthwise Separable Convolution) 改造CRNN網絡
深度可分離卷積(Depthwise Separable Convolution)能夠使得網絡的參數大幅度減少,本文擬在改造CRNN,看看參數量的變化情況: 改造前crnn網絡的cnn部分網絡代碼: class CNN0(nn.Modul
原创 暗通道去霧算法
https://blog.csdn.net/wsp_1138886114/article/details/84228939### https://www.cnblogs.com/echoboy/p/10924868.html 針對天空去霧
原创 使用kmean進行圖像分割 使用CRFs進行分割後處理
存在需要解決的問題: 1、kmean是隨機聚類的,當設置K值後,每次聚類完後分配的標籤也是隨機的,如果直接根據聚類後的標籤給着色,客戶每一次聚類後發現顏色都跟上一次不一樣,又開始嗶哩嗶哩了; 2、可通過設置kmean的參數cv2.KMEA
原创 深度學習評估參數
True Positive(TP):原來是正樣本,預測結果爲正樣本;目標識別中,把目標給框出來了 True Negative(TN):原來是負樣本,預測結果爲負樣本;目標識別中,負樣本就是背景之類 False Positive(FP):原
原创 李宏毅深度學習課程筆記 -卷積神經網絡
1、卷積神經網絡特適合image處理,其設計理念: 現象1: 現象2: 現象3: 總結summary: (1)對於圖像中的patterns(比如貓的耳朵,嘴巴等),通常比整張圖像小很多。神經網絡的每一個neuron,相當於一個ba
原创 from scratch implement crnn using pytorch :讀取訓練數據
知識點: python特殊函數 __call__() 實現類變成一個可調用對象 class Person(object): def __init__(self, name, gender): self.nam
原创 使用pytorch實現crnn
改動點: (1)把傳統的卷積改造成深度可分離卷積; (2)使用pytorch實現的ctc,不再使用百度開源的warpctc,主要原因是本人使用Windows來開發調試,編譯warpctc貌似很麻煩; crnn網絡實現代碼: clas
原创 pyorch 通過前三個數預測後一個數的模型代碼demo
相關知識: 使用scatter_進行one-hot編碼 scatter_(self, dim, index, value)將src中數據根據index中的索引按照dim的方向填入value值,這個函數可以從轉換成onehot編碼來理解
原创 pytorch 實現crnn
知識點: torch.nn.ReLU(inplace=True)中inplace的作用 在文檔中解釋是: 參數: inplace-選擇是否進行覆蓋運算 意思是是否將得到的值計算得到的值覆蓋之前的值,比如:x = x +1即對原值進行操