Interleaved 3D-CNNs for Joint Segmentation of Small-Volume Structures in Head and Neck CT Images-筆記

傳統分割:

(1)Atlas based methods,
(2)Statistical shape/appearance based methods
(3)Classification based methods

論文方法:

1.調整窗寬窗位爲[-200,200]。(肉眼可以觀察軟組織器官)
2.採用MABS method方法粗定位ROIs。使用歸一化互信息指導配準。配準包含基於非線性變形的仿射變換和B樣條。MABS方法使用開源工具。

3.只在這些位置分割。
  分割原理:每次分割一個像素(對每個像素進行2分類,被分割像素爲patch的中間像素)。通過提取同一個像素點的不同大小的patch和初步分割結果(來自配準)作爲網絡輸入,將不同patch的卷積層的輸出拼接起來,最後通過全連接層進行2分類。不過輸入大小相同,只不過是分辨率不同。
  然後分析了一下不同尺度對網絡的作用。大尺度提供context information來定位相對於附近結構的像素。小patch提供detailed appearance information來定位該像素的類別,判斷這個像素是否是該ROI的edge。

  輸入:文中的Z軸分辨率爲3,每個patch取3層。
這裏寫圖片描述
這裏寫圖片描述
4.特別的,分割出視交叉,則可以更好的分割視神經,所將視交叉和視神經聯合分割。
  聯合分割方法:首先分別單獨訓練針對視神經和視交叉的CNN網絡,然後將這兩個網絡聯合起來進行循環迭代分割。如下圖。將上一次的另一個器官分割的結果和上一次該器官的分割結果,加上該patches,輸入這個器官的分割網絡。
  單通道CNN結構:
這裏寫圖片描述
5.評價標準:
  dice係數和undirected 95% Hausdorff Distance (95HD)。
  95HD:首先定義directed Hausdorff distance:
這裏寫圖片描述
d(x,y)爲x和y的歐幾里得距離。
undirected Hausdorff distance爲:
這裏寫圖片描述
百分比HD(The directed percent Hausdorff measure):從x到y。從x到y所有最短距離中,按照從大到小排列,選取等於或最近的大於第給定百分比的距離作爲有向HD。也就是說,之前選取最短中的最長的距離,現在選取最短中的第百分比個距離,爲
這裏寫圖片描述
The (undirected) percent Hausdorff measure爲:
這裏寫圖片描述

6.使用對數損失函數,通過Adam優化,使用高斯分佈初始化權重(0, 0.0001)。學習率0.001。沒有固定的epochs,當5個週期內驗證集精確度不提升,結束訓練。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章