2025年ceph存储(ceph存储部署)

ceph存储(ceph存储部署)Ceph 是一种开源的分布式存储系统 它旨在提供高性能 高可靠性和可伸缩性的存储解决方案 Ceph 作为一个软件定义存储 SDS 系统可以在通用硬件上运行 并支持多种存储类型 包括对象存储 块存储和文件系统 Ceph 从 2006 年开源至今 一直是主流的分布式存储系统 已在 OpenStack 等系统中广泛应用 足以证明其功能的强大和稳定 下面是 Ceph 官网的架构图

大家好,我是讯享网,很高兴认识大家。



Ceph是一种开源的分布式存储系统,它旨在提供高性能、高可靠性和可伸缩性的存储解决方案。Ceph作为一个软件定义存储(SDS)系统可以在通用硬件上运行,并支持多种存储类型,包括对象存储、块存储和文件系统。

Ceph从2006年开源至今,一直是主流的分布式存储系统,已在OpenStack等系统中广泛应用,足以证明其功能的强大和稳定。  

下面是Ceph官网的架构图:

Ceph底层是RADOS(Reliable Autonomic Distributed Object Store)。正如其名字,RADOS本身就是一个完整的对象存储系统。Ceph的高可靠、高可扩展、高性能、高自动化的特性都是由这一层所提供的,在Ceph中,所有数据都分解成对象(Object 一般为4MB大小),以对象的形式存储。

在RADOS之上,Ceph提供了块设备接口、对象存储接口、文件系统存储接口、多种语音的库,四种方式来与RADOS系统进行交互。

为了使 Ceph 集群正常运行,Ceph 客户端和 Ceph OSD 必须具有有关群集拓扑的最新信息。Ceph Monitor负责组织管理整个集群,并把集群状态以5个Map的形式记录下来,这些Map被统称为Cluster Map。同时数据分发策略均也是由Mon负责。

Ceph OSD是真正管理存储数据的守护进程,它负责存储数据,处理数据复制、恢复、重新平衡。每个存储节点(主机)运行一个或多个OSD守护进程,通常一个磁盘存储设备对应一个OSD守护进程。

Ceph OSD守护程序还会确定相邻OSD是否存在,并将其报告给Ceph Monitor。这有助于使Ceph Monitor 成为轻量级进程。

Ceph Manager承载了许多辅助功能,如监控和插件,减轻mon的负担。

在Ceph中数据存在哪个OSD节点上是计算出来的(CRUSH算法),而非在元数据节点(中心节点)查询出来的。


讯享网

Ceph的去中心化设计意味着所有组件都可以之间交流,而没有集中的瓶颈。

Ceph的OSD Daemons之间是互相感知的,每个Ceph OSD守护程序都知道集群中的其他Ceph OSD Daemon。这使得Ceph OSD守护程序可以直接与其他Ceph OSD Daemon交互,完成数据的复制(备份)。

Ceph客户端可以直接与Ceph OSD守护进程进行读写交互,而无需从中心接口二次调度。对于任何读写操作请求,Client端从Ceph Monitor获取Cluster Map之后,Client将直接与OSD进行I/O操作的交互,而不再需要Ceph Monitor干预,这使得数据读写过程更为迅速。

推荐在kubernetes环境中推荐使用rook部署ceph,因为Rook提供了CSI的一整套组件。

本文使用Rook 1.12.11版本。

kubernetes集群至少需要5个节点,本文使用ubuntu22.04系统。

查看每个kubernetes节点,是否开启了内核的rbd功能。

5.4 部署Ceph

部署后查看pod运行状态

查看集群状态

rook为我们提供了测试yaml,进行部署测试

pvc状态正常,处于Bound状态。

pod运行正常,成功挂载ceph-rbd存储。

20G的PV已经挂载进pod,并可正常写入

集群删除后,清理策略会清理每个节点上的残留文件,等待cluster-cleanup-job运行结束。

小讯
上一篇 2025-05-24 21:17
下一篇 2025-04-27 10:07

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/173507.html