原创 多尺度特徵的融合操作

在目標檢測和分割的任務中,我們都喜歡用多尺度 特徵融合操作來提高準確率。以語義分割爲例,大家在看到U-Net 以後想到的第一個自認爲的創新就是加上 ASPP 結構。加上一個特徵金字塔結構。然後做實驗發現整個效果還是不錯的。其實這個特徵金字

原创 Depth-wise Convolution keras 運行時間緩慢原因

提到depth-wise conv2D 大家都如數家珍,這裏我就簡單的介紹一下,用兩張圖就可以概述出來了,大家想要看具體的介紹可以看 A Basic Introduction to Separable Convolutions 這篇文章介

原创 模型過參數化在醫學圖像中的影響 個人看法

在神經網絡訓練中,模型參數越多,雖然越容易導致過擬合,但是也可以容易的訓練。在進行transfer learning時,可以看出過參數化是網絡可以成功的關鍵。 論文中這一段很有意思,拿出來跟大家分享一下。主要意思是醫學圖像和自然圖像 差

原创 Batch normalization和Instance normalization 在域適應問題中的的作用

最近在研究域適應的問題,也是爲了解決,醫學圖像中,數據量不足的問題。我的想法是使用域適應的方法來進行分割。 在研究這個問題的時候我發現,原來我一直認爲的BN算法也是可以應用到域適應這個方面的。其實在域適應這個問題之前還有一個IN算法在風格

原创 keras 訓練是 各種loss 變化情況

在使用keras 訓練網絡時,雖然網絡設計好了,數據也加載進去了,但是發現訓練時候總是出現各種各種稀奇古怪的問題。我在這裏就列舉幾個常見的問題。供大家參考一下。當val_loss曲線或val_acc曲線震盪不平滑時的原因可能如下: 1 學

原创 adaptive pooling keras 實現。

今天看論文時,看到一篇語義分割的文章,發現作者使用了一個adaptive average pooling的pooling 操作。一看這個怎麼還沒有見過。然後百度一搜發現這是pytroch 獨有的一個pooling 操作。我平時一般使用的是

原创 Zero-shot One-shot Few-shot learning 算法

Zero-shot learning 指的是我們之前沒有這個類別的訓練樣本。但是我們可以學習到一個映射X->Y。如果這個映射足夠好的話,我們就可以處理沒有看到的類了 One-shot learning 指的是我們在訓練樣本很少,甚至只有一

原创 GhostNet 幽靈網絡結構。keras 實現

由於疫情在家,基本沒有什麼事情幹。在看看論文在CVPR2020中我看到了一篇比較有趣的論文,大家在跑CNN網絡的時候,如果你去看一下不同通道的特徵圖,你會發現有一些特徵圖很類似,用肉眼看大家也不會覺得有什麼區別。當時對於我們這些小菜鳥來說

原创 Improving Convolutional Networks with Self-Calibrated Convolutions 自卷積模塊

在2020 cvpr 上面我又看到一篇挺好的文章,這裏分享給大家。這個文章是Improving Convolutional Networks with Self-Calibrated Convolutions。這是一個即插即用的一個模塊,

原创 keras 圖像分割 圖像增強函數的使用

在使用keras 進行圖像分割時,當數據量不大時,我們需要進行圖像增加。在keras 中有專門的函數可以進行增強。這裏進行簡單的介紹一下。 keras 中圖像增強的函數是ImageDataGenerator 類 keras.prepro

原创 醫學圖像處理 小知識

以前我在處理醫學圖像數據時,往往都是處理nii 的數據。我要需要對圖像進行切片時。直接讀出矩陣時就可以了。最近有一批新的數據是dcm 類型的。由於dcm數據的獨特性。每一個文件基本就是一個切片。因此我就直接進行讀取了。我使用了 labe

原创 [keras+] 基於unet網絡的眼底血管分割代碼解析、retina-unet

unet 網絡眼底血管分割 unet 網絡結構是比較常用的圖像分割網絡結構。這裏使用了unet網絡結構 對眼底血管進行了分割。整個代碼參考了。retina-unet。整個網絡準確率還是不錯的。 眼底血管 整個眼底血管的圖片如下。、

原创 self-attention 和 convolutional layer 之間的關係

自注意網絡,這個點,現在在NLP方面特別火,現在自注意力網絡也有大量的應用在CV上面,尤其在結合CNN。那麼這個self-attention和convolutionl layer之間到底有什麼關係呢?是兩個獨立的模塊還是兩個可以轉換關係。

原创 模型過參數化

在神經網絡訓練中,模型參數越多,雖然越容易導致過擬合,但是也可以容易的訓練。在進行transfer learning時,可以看出過參數化是網絡可以成功的關鍵。 The Utility of Feature Reuse和Transfusio

原创 關於ResNet 網絡的一些思考和看法

resnet 現在在深度學習上面已經成了一個很成熟的神經網絡結構了。現在許多學習任務基本都是用resnet來做backbone做各種任務。說起resnet大家的第一映像是什麼?是不是就是那一根跳躍連接的線圖1。如果再問你一下爲什麼加這根線