作者:Haofu Liao, University of Rochester
metal artifact reduction(MAR)
Intro
CT影像的MAR一般是需要合成数据来进行训练,然而合成影像并不能完美反应真实CT的物理特性。本文首次提出利用无监督学习来做MAR,具体地,文章使用了disentanglement network,将影像解耦到common content 空间和artifact 空间。
Method
如下图所示,与为不成对的artifact-affected影像和artifact-free影像,与分别将它们编码到common content 空间,而将编码artifact 空间。后续网络基本上就是disentanglement的一般套路,用不同domain的影像解耦后的编码,1、直接恢复,计算重建误差;2、交叉组合两个空间code合成cross-domain的新影像,用鉴别器D进行鉴别。
值得一提的是这里的,定义如下,即保证对影像合成的影像是尽可能一致的。(有的文章是在合成影像之后再进行编码,直接比较code的差异)
总的loss如下:
Results
artifact-free CT数据:deeplesion数据集