AD(阿爾茨海默病)診斷初解

本篇博文主要參考來源於太原理工大學碩士研究生秦嘉瑋的碩士學位論文《MRI 結構特徵選擇方法及 AD 早期診斷的應用研究》,也是博主的AD第一篇學習論文。在本文中主要介紹AD診斷的背景及其特徵選擇方法。

  1. AD診斷的背景
  2. 特徵選擇的基礎理論
  3. 啓發式搜索特徵選擇模型
  4. MRI數據預處理

AD的背景及其研究現狀

阿爾茨海默病(Alzheimer’s Disease,AD),又稱老年癡呆症,這種疾病會影響患者的記憶力、理解力、認知能力等等,給家庭和社會帶來很大負擔,而且病因和發病機制還不明確,目前沒有有效的治療方法。輕度認知障礙(Mild Cognitive Impairment,MCI)是 AD 的早期過程。有研究發現對 MCI 患者或者早期 AD 患者進行藥物干預,可以改善症狀、緩解病情。因此,對 MCI、AD 患者的早期診斷顯得尤爲重要。
核磁共振成像是常用的一種 MCI、AD 診斷技術,但受到技術限制,MCI、AD 的MRI 圖像目前還主要依靠醫生經驗人工判斷,尚未實現自動診斷。如何實現 MCI、AD的自動診斷是計算機、人工智能、醫學影像等相關領域的研究熱點之一。通過對 MRI圖像的深入研究,挖掘其包含的有用信息,可以得到灰質體積、白質容積、腦脊液容積等大量的腦結構信息。那麼,如何將這些特徵運用到 MCI、AD 的分類研究中就成了提高其診斷準確率的關鍵。

由於腦部結構比較複雜,對於需要的特徵進行選擇這是研究的重點,也是難點。特徵有“無關特徵”(與當前學習任務無關)和“冗餘特徵”(所包含的信息可以從其他特徵推演出來)!對於已知類型的樣本進行特徵選擇無外乎以下幾種:基於錯誤率進行選擇,根據分類器的錯誤率從原始特徵中選擇數目固定的特徵子集,錯誤率最小的特徵即爲最優特徵子集;基於維度進行特徵選擇,即規定一個分類器的錯誤率,從原始特徵中選擇維度最小的特徵子集;在二者之間做一個折中,考慮錯誤率和特徵維度兩方面因素。

近年來,特徵選擇算法的研究飛速發展,其關鍵在於研究特徵選擇與特徵提取相融合的特徵選擇算法、篩選出分類效果最優的特徵子集以及研究如何將 Filter 過濾式模型和 Wrapper 封裝式模型(下一節介紹這2個模型)更好融合這三方面。

神經影像學檢查已經廣泛地應用於 MCI、AD 的輔助診斷,其中主要包含結構影像學檢查和功能影像學檢查。MRI 圖像通過磁共振成像技術生成,掃描時間較短,而且圖像包含了人體的很多信息,對這些信息進行探索和研究是準確診斷 MCI、AD 患者的關鍵。

人腦結構是錯綜複雜的,正常衰老也會伴隨着腦結構的萎縮,MCI、AD 患者也存在腦區萎縮的現象,這就給臨牀診斷帶來了許多困難:到底哪些腦區的萎縮是患病造成的,哪些腦區的萎縮只是正常衰老。正確判斷腦結構的變化能有效地診斷出 MCI、AD患者,但是現在對於 MCI、AD 的診斷主要還是依靠閱片醫生的主觀判斷,這樣的方法耗時耗力,而且還存在一定的主觀性,會影響疾病的診斷準確性。如何自動準確的診斷MCI、AD 成爲了現階段研究的熱點,該論文提出 HS-EJ啓發式搜索特徵選擇模型)特徵選擇模型,對腦圖像中大量的信息進行篩選,提取有用的信息,用於 MCI、AD 的自動診斷。

該論文采集了NC、MCI、AD的MRI數據,提取所有的被試的灰質,白質,和腦脊液體積進行特徵選擇並分類,評估特徵選擇方法的優劣。
在這裏插入圖片描述

特徵選擇的基礎理論

該論文的創新就在於特徵選擇模型的融合這一塊,在這節主要介紹幾個基礎理論,這也是博主的小小理解,已經學習過的也可以看一下,不足之處請多多指教!

Dash 等人分析了大量特徵選擇方法之後,提出了一種如下圖 所示的通用的特徵選擇過程,包括子集生成、子集評價、停止條件以及結果驗證四部分!
在這裏插入圖片描述
特徵選擇的一般過程:首先是對原始的特徵進行子集選擇,將原始特徵分爲多個子集,爲下一步的子集評價做準備;然後進入子集評價環節,將多個特徵子集依次進行子集評價,然後輸出結果,根據停止條件選擇出最優特徵子集;最後將這組特徵進行實際檢測。

  • 子集生成
    特徵子集主要由特徵子集搜索方向決定的,常見的搜索方向有以下幾種:
    前向搜索:初始化特徵子集,依次將特徵加入循環當中進行子集評價,直到選擇出滿足條件的特徵子集,這就是最優特徵子集。
    後向搜索:將原始特徵依次減少特徵加入循環,直到滿足條件爲止,得到最優特徵子集。
    雙向搜索:結合前向和後向搜索的思想,從兩個方向同時進行搜索,得到最優特徵子集。相比較前向和後向搜索,雙向搜索用時較短。
    隨機搜索:隨機選擇初始特徵子集,然後隨機選出特徵進入循環,得到最優特徵子集。但這樣的方法可能會陷入局部最優中,而且多次運行得到的特徵子集可能存在較大差異。
  • 子集評價
    子集評價是特徵選擇過程中最關鍵的一環,主要作用是評價產生過程中所提供的特徵子集的好壞,按照其工作原理可以分爲 Filter 過濾式模型和 Wrapper 封裝式模型。

Filter 過濾式模型
Filter 過濾式模型的評估算法與後續的學習算法分開的,也就是說是直接由數據求的,不依賴學習算法。這種模型只依賴數據本身,運用特徵的相關程度進行特徵選擇,特徵相關度較大的特徵認爲有較好分類效果的特徵。
該模型的通用性強,可用於不同的特徵集,而且算法簡單,易於操作,適用於數據量較大的特徵集。但是其忽略了後續的學習算法,選出的特徵可能對於學習算法不是最優的特徵集,因此得到的分類效果可能不是最優的。

在這裏插入圖片描述

Wrapper 封裝式模型
Wrapper 封裝式模型的評估算法是考慮後續的學習算法,以學習算法的性能作爲評價標準,一般爲分類準確率。通過後續學習算法選擇出的最優特徵集,不僅得到特徵子集,而且考慮了學習算法對特徵的影響
這樣的模型得到的最優特徵子集能顯著提高學習算法的性能,但是每一次子集評價時都需要
學習算法的參與,時間複雜度較高。

在這裏插入圖片描述

  • 評價標準
    Filter 過濾式特徵選擇模型一般基於以下四種評價標準進行特徵選擇:相關性、距離、信息增益以及一致性度量標準,Wrapper 封裝特徵選擇模型以學習算法的性能作爲評價標準,因此多運用分類準確率作爲度量指標。直接運用分類準確率作爲特徵選擇的評價標準有利於提升後續學習算法的性能,準確性極高。

  • 停止條件與結果驗證
    特徵選擇過程是一個循環過程,如果沒有停止的話,這個循環將無窮無盡的循環下去,因此需要一個停止條件。當循環滿足這一條件時,特徵子集搜索過程停止,輸出最優特徵子集。一般停止條件的設置遵循以下幾條規定:達到一定的分類準確率的特徵集;特徵數增加或者減少時不會改變原有的結果時得到的特徵集。結果驗證就是驗證最優特徵子集的有效性,具體方法一般是運用分類算法驗證其是否能提高分類準確率。因此,如果能保留兩種模型的優點,去除其缺點,可能提高特徵選擇模型的性能。

啓發式搜索特徵選擇模型

  • 顯著性分析
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章