原创 鋁型材表面瑕疵識別——都都都都都都方案

文章目錄BaselineTraining DetailsInnovationsDilated convolutionproblems1 Dual Path Aggregation for Object Detections2 Mu

原创 GLUON語法

.reshape()-1或0的含義 x = nd.arange(16) y = x.reshape(-1, 4) 結果: [[ 0. 1. 2. 3.] [ 4. 5. 6. 7.] [ 8.

原创 七月在線-筆試題

調整超參數來最小化代價函數(cost function),方法有:窮舉搜索、隨機搜索、貝葉斯優化 隱藏層降維與主成分分析法的差異: PCA提取的是數據分佈方差較大的方向 隱藏層可以提取有預測能力的特徵

原创 深度學習基礎(一)——反向傳播算法

概述 梯度下降法需要利用損失函數對所有參數求梯度,來尋找最小值點。而反向傳播法就是用於計算該梯度的方法,其本質利用鏈式法則對每個參數求導。 網絡傳播的過程 前向傳播 Initialize the parameters for

原创 深度學習基礎(六)—— 批標準化 (Batch Normalization)

1 特徵數據的標準化 2 Batch Normalization 2.1 WHY Batch Normalization 2.2 How to Batch Normalization 2.2.1 Feature Scaling

原创 目標檢測(二)—— R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN

R-CNN 區域卷積神經網絡(Regions with CNN features,簡稱 R-CNN)使用深度模型來解決物體識別。 具體步驟: Sective Search 。對每張輸入圖像使用選擇性搜索來選取多個高質量的提議

原创 深度學習基礎(七)—— Activation Function

1. Sigmoid 2. Tanh 3. ReLU 4. LReLU、PReLU與RReLU 4.1 LReLU 4.2 PReLU 4.3 RReLU 4.4 ELU 5 總結 6 參考 1. Sigmoid 函數

原创 深度學習基礎(二)——Softmax迴歸與Logistic迴歸

1 簡介 1.1 Logistic迴歸 1.2 Softmax迴歸 2 代價函數 3 Softmax迴歸模型參數化特點 4 權重衰減 5 Softmax 與 Logistic的迴歸關係 6 Sotfmax 迴歸 vs k個

原创 深度學習基礎(五)—— 數據預處理

1 PCA 1.1 PCA實例 1.2 旋轉數據 1.3 數據降維 1.4 還原近似數據 1.5 選擇主成分個數 1.6 對圖像數據應用PCA算法 1.7 PCA 的理論基礎 2 白化 2.1 PCA白化 2.2 ZCA

原创 圖像語義分割(一)

1 圖像語義分割的概念 2 語義分割的網絡 2.1 FCN 全卷積網絡 2.1.1 卷積化 2.1.2 上採樣、跳躍結構 2.1.3 上採樣的方法 2.1.4 FCN 的結果 2.2 Dilated Convolution

原创 目標檢測(一)—— SSD(single shot multibox detection)

筆記目錄1 Inference2 基本結構與設計理念2.1 default box & feature map cell2.2 Model2.3 設計理念2.3.1 多尺度特徵預測2.2.2 採用卷積進行檢測2.2.3 Ancho

原创 One-stage

迴歸網絡 區域迴歸(置信度、位置、類別) Anchor機制(SSD)RPN 點贊 收藏 分享 文章舉報 愛彈ukulele的程序猿 發佈了41 篇原創文章 · 獲贊

原创 JAVA常用工具類(一)集合排序

1 概述 集合中基本數據類型的排序 集合中字符串的排序 Comparator接口 Comparable接口 與數組排序區分開。 集合排序: 使用Collections類裏的sort()方法。 sort(List<T> lis

原创 MobileNet

文章目錄1 MobileNet V11.1 綜述1.2 Depthwise Separable Convolution1.2.1 問題描述1.2.2 普通卷積過程1.2.3 Depthwise Separable Convolut

原创 小型高效的神經網絡

現階段,在建立小型高效的神經網絡工作中,通常可分爲兩類工作: 壓縮預訓練模型。獲得小型網絡的一個辦法是減小、分解或壓縮預訓練網絡,例如量化壓縮(product quantization)、哈希(hashing )、剪枝(pru