分佈式對象存儲系統在openstack中的應用研究--Ceph(一)

Ceph介紹

Ceph的是一個大規模的、可擴展的、開源的分佈式存儲系統。它包括對象存儲,塊存儲,並且符合是POSIX標準的分佈式文件系統。Ceph具有自我修復和自我管理,並且沒有單點故障等優點。 Ceph已經集成在了Linux(2.6.34之後)之中,並能很好的使用在OpenStack的雲操作系統。因爲它的開源性質,這種便攜式存儲平臺可以安裝和使用在公有云或私有云中。

 

RADOS:可靠的自主分佈式對象存儲(Reliable Autonomic Distributed Object Store )是一個對象存儲系統。 RADOS管理的對象分佈在整個存儲集羣中,並且通過複製對象達到容錯的目的。它主要有3個主要組成部分:

對象存儲設備( OSD ):存儲守護進程 - RADOS服務,定位數據。該進程運行在集羣中的每個服務器上。對於每一個OSD,都有一個與之映射關聯的磁盤。爲了達到提高性能的目的,最好是集中所有的磁盤如使用磁盤陣列,LVMBTRFS池。一臺服務器將有一個守護進程運行。默認情況下,一個OSD將會有三個池將被創建:數據,元數據和RBD

元數據服務器(MDS):用來存儲集羣的元數據。 MDSCeph客戶端對象之上構建POSIX文件系統。

監視器(MON):這個輕量級的守護進程用來處理與外部應用程序和客戶端的所有通信。它還爲Ceph/ RADOS集羣的分佈式決策提供了一個共識。例如,當您使用MON服務器中的某個被監控的IP在客戶端上遠程掛載Ceph共享盤時,這個共識就會檢查狀態和數據的一致性。建議在一個集羣中至少要運行3 ceph-mon 守護進程。這是因爲採用投票選舉仲裁的方式,需要一個奇數。

Ceph的開發者建議使用BTRFS文件系統做存儲,在生產環境中使用XFS也許更好。無論Ceph還是Btrfs文件系統都不是爲生產做準備的。把它們放在一起,存在安全隱患。這就是爲什麼XFS是一個很好的替代BTRFS ext4文件系統是兼容的,但不能發揮Ceph的優勢。

建議暫時先用XFS文件系統與Ceph搭配使用,若btrfs在生產環境下足夠穩定,那麼將使用它與Ceph搭配。

 

RADOS:作爲一個對象,默認的存儲結構。

RBD:作爲一個塊設備,linux內核中RBDRADOS block device)驅動允許在分佈式數據對象存儲對象上分離一塊linux塊設備出來,這是與KVMRBD鏡像兼容的。

CephFS:作爲一個文件,是符合POSIX標準的文件系統。

Ceph開放了它的一些分佈式對象存儲(RADOS)接口:

Ÿ   RADOS Gateway:兼容SwiftAmazon-S3RESTful接口;

Ÿ   librados:和C/C++相關的;

Ÿ   rbdQEMU-RBDlinux內核和QEMU塊設備。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章