原创 DeepLabV3論文解讀(空洞卷積/膨脹卷積 理解)

DeepLabV3論文解讀(空洞卷積/膨脹卷積 理解) 最近在做基礎網絡研究,設計的網絡結構除了在分類數據集上測試,還需要在分割和檢測網絡上測試效果,故選擇了DeepLabV3作爲對比平臺。本想直接替換backbone查看結果,但

原创 語義分割入門系列之 FCN(全卷積神經網絡)

FCN論文解讀及代碼分析 Fully Convolutional Networks for Semantic Segmentation FCN是卷積神經網絡用於語義分割的開山之作,文章的出發點在於如何將普通的分類卷積神經網絡用於語

原创 CS231n學習筆記——介紹神經網絡、卷積神經網絡

CS231n學習筆記——介紹神經網絡、卷積神經網絡 ———————————————————————————————————————————— 神經網絡 之前提到的線性分類器訓練的重點在權重W上,但是隻要將W和非線性函數(例如圖中的

原创 語義分割入門系列之 U-Net

U-Net論文解讀及代碼解讀 U-Net: Convolutional Networks for Biomedical Image Segmentation UNet是基於FCN改良而來的網絡,目的是用於醫療圖像分割(也是醫療圖像

原创 MobileNet系列之 MobileNet V2解讀

MobileNet系列之 MobileNet V2解讀 《MobileNetV2: Inverted Residuals and Linear Bottlenecks》 MobileNetV1利用深度可分離卷積在速度和精度之間做出

原创 Gated-SCNN 語義分割解讀

Gated-SCNN解讀 Gated-SCNN是ICCV2019的文章,以往的語義分割最新方法在單個神經網絡中處理 包括顏色、形狀、紋理特徵的密集特徵表示,然而這種方法可能並不理想,因爲他們包含了與識別相關的不同信息,所以本文提出

原创 MobileNet系列之 MobileNet V1解讀

MobileNet 系列之 MobileNet V1解讀 MobileNet V1 Mobilenet v1在使用深度可分離卷積的基礎上,提出一套用兩個全局超參數( width multiplier and resolution

原创 ANN:Asymmetric Non-local Neural Networks for Semantic Segmentation 文章解讀

《Asymmetric Non-local Neural Networks for Semantic Segmentation 》文章解讀 網絡簡介 文中提出了兩個模塊Asymmetric Pyramid Non-local Bl

原创 tmux安裝過程

tmux終端複用安裝教程(非root用戶) 如果不是服務器管理員的話,需要從源碼安裝,首先下載安裝包: 執行命令: wget https://github.com/tmux/tmux/releases/download/2.2/t

原创 CS231n學習筆記——更好的優化算法

CS231n學習筆記——更好的優化算法 SGD的缺點: 優化的軌跡會如圖所示,因爲很多函數的梯度方向並不是直接朝向最小值的,所以沿着梯度前進的時候可能會來回反覆。這個問題在高維空間中更加普遍, 而且SGD很容易陷入局部最小值 而且在

原创 CS231n學習筆記——批量歸一化(Batch Normalization)、監視訓練

CS231n學習筆記——批量歸一化(Batch Normalization) 想要保持單位高斯激活,那麼就需要做批量歸一化,即在神經網絡中額外加入一層,以使得中間的激活值均值爲0方差爲1。 如果我們想要正確的激活單位高斯函數,我們可

原创 CS2321n學習筆記——激活函數、數據預處理、權重初始化

CS2321n學習筆記——激活函數數、據預處理、權重初始化 激活函數 1、sigmoid函數 sigmoid函數曾經一度非常流行,但是它有三個嚴重缺點 1.飽和神經元將使梯度消失 當x=-10時,接近負飽和區,它的導數非常接近0,

原创 CS2321n學習筆記——卷積和池化

CS2321n學習筆記——卷積和池化 卷積層和普通的全連接層面的最大差別就是,它可以保全空間結構 用之前提到的例子繼續說明,假如輸入的圖片尺寸是32x32x3的,這裏使用一個5x5x3的卷積核來進行運算,具體步驟是這個卷積核在這個圖

原创 CS231n學習筆記——優化、梯度

CS231n學習筆記——優化、梯度 多元情況下生成的導數叫做梯度,所以梯度是偏導數組成的向量,有和x一樣的形狀。梯度中的每個元素表示每個相關方向上函數的斜率。 計算梯度的方法——有限差分 在參數W的每一項做一點微小的改變(0.000