MMU介紹

轉載:http://blog.csdn.net/ipmux/article/details/19167605

MMU即內存管理單元(Memory Manage Unit),是一個與軟件密切相關的硬件部件,也是理解linux等操作系統內核機制的最大障礙之一。可以說,不懂MMU使很多人一直停滯在單片機與無OS的時代。博主之前對MMU也一直是霧裏看花,似懂非懂。最近終於自認爲雲開霧散後,回頭總結,感覺有幾個概念是阻礙人們理解MMU的元兇。

1)虛擬地址/物理地址

如果處理器沒有MMU,CPU內部執行單元產生的內存地址信號將直接通過地址總線發送到芯片引腳,被內存芯片接收,這就是物理地址(physical
address),簡稱PA。英文physical代表物理的接觸,所以PA就是與內存芯片physically
connected的總線上的信號。

如果MMU存在且啓用,CPU執行單元產生的地址信號在發送到內存芯片之前將被MMU截獲,這個地址信號稱爲虛擬地址(virtual
address),簡稱VA,MMU會負責把VA翻譯成另一個地址,然後發到內存芯片地址引腳上,即VA映射成PA,

所以物理地址①是通過CPU對外地址總線②傳給Memory Chip③使用的地址;而虛擬地址④是CPU內部執行單元⑤產生的,發送給MMU⑥的地址。硬件上MMU⑥一般封裝於CPU芯片⑦內部,所以虛擬地址④一般只存在於CPU⑦內部,到了CPU外部地址總線引腳上②的信號就是MMU轉換過的物理地址①。

軟件上MMU對用戶程序不可見,在啓用MMU的平臺上(沒有MMU不必說,只有物理地址,不存在虛擬地址),用戶C程序中變量和函數背後的數據/指令地址等都是虛擬地址,這些虛擬內存地址從CPU執行單元⑤發出後,都會首先被MMU攔截並轉換成物理地址,然後再發送給內存。也就是說用戶程序運行*pA
=100;”這條賦值語句時,假設debugger顯示指針pA的值爲0x30004000(虛擬地址),但此時通過硬件工具(如邏輯分析儀)偵測到的CPU與外存芯片間總線信號很可能是另外一個值,如0x8000(物理地址)。當然對一般程序員來說,只要上述語句運行後debugger顯示0x30004000位置處的內存值爲100就行了,根本無需關心pA的物理地址是多少。但進行OS移植或驅動開發的系統程序員不同,他們必須清楚軟件如何在幕後輔助硬件MMU完成地址轉換。

暫不探討這種複雜機制的歷史原因,很多人學習或闡述MMU時,都迷失於對一些相關發散問題的無休止探究,我們暫時抽身出來,用一句話做階段性交待,”所有計算機科學中的問題都能通過增加一箇中間轉換層來解決”(”All
problems in computer science can be solved by another level of
indirection”)。某種程度上,這種被動解決問題的方式使計算機軟硬件的一系列發展只不過是慣性向前,看起來順理成章,然而幾乎所有從業者的智慧都浪費在不斷學習和構建新的中間層,身不由己的推動這個龐然大物繼續膨脹。忽然感覺索然無味,很無聊啊。

2)頁/頁幀/頁表/頁表項(PTE)

這幾個頁概念也噎倒了不少人,這裏澄清下。MMU是負責把虛擬地址映射爲物理地址,但凡”映射”都要解決兩個問題:映射的最小單位(粒度)和映射的規則。

MMU中VA到PA映射的最小單位稱爲頁(Page),映射的最低粒度是單個虛擬頁到物理頁,頁大小通常是4K,即一次最少要把4K大小的VA頁塊整體映射到4K的PA頁塊(從0開始4K對齊劃分頁塊),頁內偏移不變,如VA的一頁0x30004000~0x30004fff被映射到PA的一頁
0x00008000~0x00008fff,當CPU執行單元訪問虛擬地址0x30004008,實際訪問的物理地址是0x00008008(0x30004008和0x00008008分別位於虛實兩套地址空間,互不相干,不存在重疊和衝突)。以頁爲最小單位,就是不能把VA中某一頁劃分成幾小塊分別映射到不同PA,也不能把VA中屬於不同頁的碎塊映射到PA某一頁的不同部分,必須頁對頁整體映射。

頁幀(Page Frame)是指物理內存中的一頁內存,MMU虛實地址映射就是尋找物理頁幀的過程,對這個概念瞭解就可以了。

MMU軟件配置的核心是頁表(Page Table),它描述MMU的映射規則,即虛擬內存哪(幾)個頁映射到物理內存哪(幾)個頁幀。頁表由一條條代表映射規則的記錄組成,每一條稱爲一個頁表條目(Page
Table Entry,即PTE),整個頁表保存在片外內存,MMU通過查找頁表確定一個VA應該映射到什麼PA,以及是否有權限映射。

但如果MMU每次地址轉換都到位於外部內存的頁表上查找PTE,轉換速度就會大大降低,於是出現了

3)TLB

TLB (Translation Lookaside
Buffers)即轉換快表,又簡稱快表,可以理解爲MMU內部專用的存放頁表的cache,保存着最近使用的PTE乃至全部頁表。MMU接收到虛擬地址後,首先在TLB中查找,如果找到該VA對應的PTE就直接轉換,找不到再去外存頁表查找,並置換進TLB。TLB屬於片上SRAM,訪問速度快,通過TLB緩存PTE可以節省MMU訪問外存頁表的時間,從而加速虛實地址轉換。TLB和CPU
cache的工作原理一樣,只是TLB專用於爲MMU緩存頁表。

4)MMU的內存保護功能

既然所有發往內存的地址信號都要經過MMU處理,那讓它只單單做地址轉換,豈不是浪費了這個特意安插的轉換層?顯然它有能力對虛地址訪問做更多的限定(就像路由器轉發網絡包的同時還能過濾各種非法訪問),比如內存保護。可以在PTE條目中預留出幾個比特,用於設置訪問權限的屬性,如禁止訪問、可讀、可寫和可執行等。設好後,CPU訪問一個VA時,MMU找到頁表中對應PTE,把指令的權限需求與該PTE中的限定條件做比對,若符合要求就把VA轉換成PA,否則不允許訪問,併產生異常。

5)多級頁表

虛擬地址由頁號和頁內偏移組成。什麼東東呢?

前面說過MMU映射以頁爲最小單位,假設頁大小爲4K(212),那麼無論頁表怎樣設置,虛擬地址後12比特與MMU映射後的物理地址後12比特總是相同,這不變的比特位就是頁內偏移。爲什麼不變?拜託,把搭積木想象成一種映射,不管你怎麼搭,你也改變不了每塊積木內部的原子排列吧。所謂以頁爲最小單位就是保持一部分不變作爲最小粒度。

頁號就更有故事了,一個32bits虛擬地址,可以劃分爲220個內存頁,如果都以頁爲單位和物理頁幀隨意映射,頁表的空間佔用就是220*sizeof(PTE)*進程數(每個進程都要有自己的頁表),PTE一般佔4字節,即每進程4M,這對空間佔用和MMU查詢速度都很不利。

問題是實際應用中不需要每次都按最小粒度的頁來映射,很多時候可以映射更大的內存塊。因此最好採用變化的映射粒度,既靈活又可以減小頁表空間。具體說可以把20bits的頁號再劃分爲幾部分(如下圖linux的3級劃分),
PGD(16bits) | PMD(4bits) | PTE(4bits) | Offset(12bits)

簡單說每次MMU根據虛擬地址查詢頁表都是一級級進行,先根據PGD的值查詢,如果查到PGD的匹配,但後續PMD和PTE沒有,就以2(offset+pte+pmd)=1M爲粒度進行映射,後20bits全部是塊內偏移,與物理地址相同。

依次類推,具體可參考WolfGang Mauerer的professional linux kernel architecture的1.3.4節,以及各CPU的Spec中MMU章節,查看MMU組合出物理地址的詳細過程。

6)操作系統和MMU

實際上MMU是爲滿足操作系統越來越複雜的內存管理而產生的。OS和MMU的關係簡單說:

a.系統初始化代碼會在內存中生成頁表,然後把頁表地址設置給MMU對應寄存器,使MMU知道頁表在物理內存中的什麼位置,以便在需要時進行查找。之後通過專用指令啓動MMU,以此爲分界,之後程序中所有內存地址都變成虛地址,MMU硬件開始自動完成查表和虛實地址轉換。

b.OS初始化後期,創建第一個用戶進程,這個過程中也需要創建頁表,把其地址賦給進程結構體中某指針成員變量。即每個進程都要有獨立的頁表。

c.用戶創建新進程時,子進程拷貝一份父進程的頁表,之後隨着程序運行,頁表內容逐漸更新變化。比較複雜了,幾句講不清楚,不多說了哈,有時間講linux的話再說吧

6)總結

相關概念講完,VA到PA的映射過程就一目瞭然:MMU得到VA後先在TLB內查找,若沒找到匹配的PTE條目就到外部頁表查詢,並置換進TLB;根據PTE條目中對訪問權限的限定檢查該條VA指令是否符合,若不符合則不繼續,並拋出exception異常;符合後根據VA的地址分段查詢頁表,保持offset(廣義)不變,組合出物理地址,發送出去。

在這個過程中,軟件的工作核心就是生成和配置頁表。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章