Ceph–Cluster存儲高可用
發布時間:2026-04-17 21:24:05
Ceph架構簡介及使用場景介紹
1.1 Ceph簡介
Ceph是一個統一的分布式存儲係統,設計初衷是提供較好的性能、可靠性和可擴展性。
Ceph項目最早起源於Sage就讀博士期間的工作(最早的成果於2004年發表),並隨後貢獻給開源社區。CentOS、RedHat及OpenStack都可與Ceph整合以支持虛擬機鏡像的後端存儲。中網通技術為客戶提供的Ceph高性能分布式存儲便是利用這一開源技術,存儲使用NFS協議的開源NAS(下圖為使用普通SATA硬盤搭建的ceph用NBU軟件備份數據截圖)。

1.2 Ceph特點
-
高性能
a. 摒棄了傳統的集中式存儲元數據尋址的方案,采用CRUSH算法,數據分布均衡,並行度高。
b.考慮了容災域的隔離,能夠實現各類負載的副本放置規則,例如跨機房、機架感知等。
c. 能夠支持上千個存儲節點的規模,支持TB到PB級的數據。

-
高可用性
a. 副本數可以靈活控製。
b. 支持故障域分隔,數據強一致性。
c. 多種故障場景自動進行修複自愈。
d. 沒有單點故障,自動管理。
-
高可擴展性
a. 去中心化。
b. 擴展靈活。
c. 隨著節點增加而線性增長。
-
特性豐富
a. 支持三種存儲接口:塊存儲、文件存儲、對象存儲。
b. 支持自定義接口,支持多種語言驅動。
1.3 Ceph架構
支持三種接口:
-
Object:有原生的API,而且也兼容Swift和S3的API。
-
Block:支持精簡配置、快照、克隆。
-
File:Posix接口,支持快照。rados
1.4 Ceph核心組件及概念介紹
-
Monitor
一個Ceph集群需要多個Monitor組成的小集群,它們通過Paxos同步數據,用來保存OSD的元數據。
-
OSD
OSD全稱Object Storage Device,也就是負責響應客戶端請求返回具體數據的進程。一個Ceph集群一般都有很多個OSD。
-
MDS
MDS全稱Ceph Metadata Server,是CephFS服務依賴的元數據服務。
-
Object
Ceph最底層的存儲單元是Object對象,每個Object包含元數據和原始數據。
-
PG
PG全稱Placement Grouops,是一個邏輯的概念,一個PG包含多個OSD。引入PG這一層其實是為了更好的分配數據和定位數據。
-
RADOS
RADOS全稱Reliable Autonomic Distributed Object Store,是Ceph集群的精華,用戶實現數據分配、Failover等集群操作。
-
Libradio
Librados是Rados提供庫,因為RADOS是協議很難直接訪問,因此上層的RBD、RGW和CephFS都是通過librados訪問的,目前提供PHP、Ruby、Java、Python、C和C++支持。
-
CRUSH
CRUSH是Ceph使用的數據分布算法,類似一致性哈希,讓數據分配到預期的地方。
-
RBD
RBD全稱RADOS block device,是Ceph對外提供的塊設備服務。
-
RGW
RGW全稱RADOS gateway,是Ceph對外提供的對象存儲服務,接口與S3和Swift兼容。
-
CephFS
CephFS全稱Ceph File System,是Ceph對外提供的文件係統服務。





閩公網安備 35020302001891號