3D U-net: Learning Dense Volumetic Segmentation from Sparse Annotation 翻譯

聲明:文章所有權利歸原作者所有,本文根據個人理解,略做翻譯,疏漏之處,敬請指出,以便改之
From: here
摘要

本文介紹了一種從稀疏標記的體積圖像中進行體積分割的網絡。給出了該種方法在兩種情況下的使用實例:(1) 半自動化的方式,用戶在需要分割的體積中標記一些切片,然後網絡在這些標記的切片中進行學習並能提供一個密集的3D分割;(2) 全自動化的方式,假設有一個具有代表性的,稀疏標記的訓練集,並在這個訓練集上進行訓練,網絡能夠分割出一個新的體積圖像。本文所提方法是以前u-net的擴展,將2D操作替換成3D。爲使訓練期間使聚增強更加高效,所以執行的在線進行彈性形變。模型從頭開始進行訓練,沒有預訓練模型,是端到端的。在Xenopus kidney這樣複雜,高度可變性3D結構上進行測試,效果都很好。
都是廢物

1:https://lmb.informatik.uni-freiburg.de/Publications/2016/CABR16/

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章