如何讓AI像放射科醫生一樣看懂胸片?

全文共2933字,預計學習時長6分鐘

clipboard.png

目前,世界上70億人口中,只有大約10%能獲得良好的衛生保健服務,而世界上一半的人口甚至接觸不到基本的衛生服務。即使在發達國家,醫療保健體系也壓力重重,因爲其成本不斷上升,等待時間也很長。並且,想要在短時間內培養足夠多的醫生和護理人員來滿足日益增長的需求也很不切實際。要想解決這個問題,就必須實現技術突破。

這也正是機器學習(ML)和人工智能(AI)大有可爲的領域。

本文將介紹一種簡單但極其有效的深度學習方法。該方法的發明是爲了理解胸部X光圖像。

胸部X光片(CXRs)數目衆多

CXR是最常見的醫學成像技術,其使用量通常比其他高級成像方法(如核磁共振成像掃描、CT掃描、PET掃描等)高出2至10倍:

clipboard.png

在2000多萬張x光中,800多萬張是胸部x光,因此胸部x光是最常見的標準化醫學成像。

CXR受歡迎的原因包括:(1)輻射劑量較低;(2)成本較低;(3)只需不到一分鐘的時間即可拍出一張片(相比之下,CT掃描需要一個小時甚至更長時間)。因此,CXRs被廣泛用作篩查工具。如果你的肺部有問題,並且需要更多的依據來確診,醫生通常會先給你拍一個CXR。CXR能夠提供一個低保真度的視圖,而這也是其他更復雜的成像方法的基礎。

一家規模較大的醫院每天會拍數百甚至上千張CXR,這些多的CXR都需要放射科醫生或其他醫生來解讀。並且,如果需要對緊急情況進行檢測,比如住院病人出了什麼問題,那麼醫生就必須在幾個小時之內完成讀片。總之,對放射科醫生和內科醫生來說,解讀CXR是一項相當艱鉅的任務。

讀片涉及步驟多且耗時

受過良好訓練的放射科醫生閱讀CXR的平均時長爲一到兩分鐘。因爲讀取CXR是一個系統化的過程,所以很難加快速度。但是,有一種很受歡迎的記憶方法可以幫助讀片,即ABCDEFGHI。其中, A代表氣道,B代表骨骼,C代表心臟……學到了吧。但是,這種記憶方法並不簡短,而且走捷徑的話往往會忽略重要發現。

解讀CXR實際上是非常困難的。放射科醫生表示,他們在培訓期間要解讀約10000張CXR圖像,以便熟練掌握讀片技巧。之所以要接受如此大量的學習與訓練,可能是因爲CXR與之前所訓練的自然圖像差異很大。因此這對於AI系統來說也是一個障礙。

放射科醫生嚴重短缺

目前,我們只談到了CXR,但其實隨着CT掃描和其他成像技術的普及,放射科醫生的工作量將大幅增加。發達國家同樣面臨着放射科醫生長期短缺的問題。例如,英國發布的臨牀放射學報告顯示了數年來的主要發現,即“勞動力短缺加劇,成本急劇上升,放射科工作人員也呈現出較大壓力和倦怠跡象。”在醫療基礎設施落後的發展中國家,訓練有素的放射科醫生更爲匱乏。

CXR中的器官分割

要理解CXR,一個基本的任務是要分清肺野和心臟區:

clipboard.png

左:該CXR來源於日本放射學會。右:同一個CXR,但左肺、右肺和心臟輪廓已被人類標記。

事實上,從肺部輪廓可以得到很多信息:異常大的心臟可能意味着心臟肥大(心臟異常增大);肋膈角變鈍(下圖#3)可能表明有胸腔積液。將診斷AI算法僅應用到肺野也有一定的幫助,因爲這樣能把來自圖像其他部分的雜散信號降至最低。(衆所周知,因爲神經網絡分類器有時會利用CXR的僞像,如曝光和文本等。)

clipboard.png

肺野周圍重要的輪廓標誌:肺野不包括主動脈弓(1);健康患者應能看到肋膈角(3)和心膈角(2)。肺門和其他血管結構(4)是肺野的一部分。健康肺的胸腔輪廓(5)應清晰。

CXR分割的臨牀應用

除了協助計算機輔助診斷,CXR分割還可以直接應用於心胸比(CTR)的自動計算。CTR的計算方法爲心臟的寬度除以肺的寬度(見下圖)。

clipboard.png

CTR是一個關鍵的臨牀指標。CTR >0.5表明心臟肥大,或者說心臟增大,這通常是由心臟疾病或先前的心臟病發作引起的。測量CTR的過程非常繁瑣,包括精確定位心臟和肺的左右大部分點,並進行實際測量。結果,大多數放射科醫生卻跳過測量這一步,只關注心臟是否過大。在像中國這樣的一些國家,閱讀CXR時必須進行明確的CTR測量,然而這會顯著增加放射科醫師的工作量。

顯而易見,高質量的肺分割可以自動計算CTR:

clipboard.png

圖中的CTR測量線是根據我們的方法生成的肺掩模計算而成的。事實上,在後續工作中會發現,我們的CTR計算方法非常精確,均方根誤差(RMSE)只有6%,與現有的工作(達拉勒等人於2017年進行的研究工作)相當,甚至可能更好。

由於無法訪問他們的數據庫,因此也難以對這些數字作出直接比較。

利用神經網絡分割CXR所面臨的挑戰

挑戰1:醫學知識隱晦

clipboard.png

因爲CXR是三維人體的二維投影,所以圖像中許多生理結構會相互疊加,很多時候必須根據圖像分清器官邊界。以下列情況爲例:

clipboard.png

左:CXR圖像顯示爲輕度畸形。右:人類標記的左肺和右肺區域。

根據圖像顯示,在左下葉(圖像的右側)和左肺的頂部有一些瘢痕,它們使肺的輪廓變得模糊。因此,必須利用醫學知識來推斷肺的形狀,從而繪製出紅色的輪廓。分割模型必須獲得全局的輪廓形狀,以解決模糊邊界周圍的局部模糊,並生成與人工標註相似的正確輪廓。

挑戰2:非自然圖像

CXR圖像看起來完全不像我們在日常生活中看到的圖像:

clipboard.png

clipboard.png

大多數現有的計算機視覺神經網絡是爲彩色自然圖像而設計,並利用了其中豐富的紋理。因此,難以在CXR上直接應用現有的解決方案

挑戰#3:培訓數據量過少

由於隱私問題和管理障礙等原因,公開的CXR醫學圖像的數量要比自然圖像少得多。此外,與任何註釋器都可以標記的自然圖像不同,醫學圖像標記只能由醫生和受過培訓的專業人員來完成,這也使得標籤獲取成本大大增加。

據瞭解,目前公開可用、且具有像素級肺野標籤的CXR數據集只有兩套,其中一套包含247張圖像,另一套包含138張圖像。以上兩個數據庫至少比ImageNet challenge小3000倍,因爲後者有120萬到1400萬張帶標籤的圖片。

事實上,在ImageNet數據集上訓練的神經網絡非常強大,幾乎所有現有的神經網絡分割模型都是基於ImageNetchallenge(如ResNet或VGG)上學習的參數而進行的初始化。這樣一個小數據集能否滿足擁有數百萬到數億參數的數據神經網絡呢?目前還不清楚。

解決方案簡述

我們將設計模型來應對上述每個挑戰。以下爲簡要介紹:

與自然圖像不同,CXR是灰度圖像,並且高度標準化(挑戰#2)。因此,相比於使用不同顏色和形狀的ImageNet數據集的網絡,我們設計的分割網絡使用更少的卷積通道。可是,這種改變卻使得Imagenet訓練的模型難以進行遷移學習。然而,通過使用更少的過濾器,我們的模型只能獲得很少的參數(小的模型容量),這些參數本可以幫助降低在少量訓練數據上發生過擬合的風險(挑戰#3)。

最後,或許也是最具挑戰性的一項任務,那就是如何讓分割模型學會人類所擁有的醫學知識(挑戰#1)。解決這一問題的關鍵在於,使用對抗學習來指導分割模型,從而生成更多的自然圖像。這一方法非常有效。

爲了應對以上提出的所有挑戰,最終的解決方案如下:

clipboard.png

clipboard.png

留言 點贊 關注

我們一起分享AI學習與發展的乾貨

歡迎關注全平臺AI垂類自媒體 “讀芯術”

(添加小編微信:dxsxbb,加入讀者圈,一起討論最新鮮的人工智能科技哦~)

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章