Linux 9 部署 Ceph 分布式存储( 三 )


将集群中任何可用的设备作为 OSD:
[root@ceph1 ~]# ceph orch Apply osd --all-available-devices Scheduled osd.all-available-devices update...
再次检查集群状态:
ceph -s

Linux 9 部署 Ceph 分布式存储

文章插图
 
图 1-3, 集群状态变为健康
集群健康状态变为 OK 。
查看 OSD:
ceph osd tree
Linux 9 部署 Ceph 分布式存储

文章插图
 
图 1-4, 查看 OSD 信息
1.3.7 部署 Monitor
Ceph Monitor (ceph-mon) 维护集群状态的 maps,包括 monitor map、manager map、OSD map、MDS map 以及 CURSH map 。这些 maps 是重要的集群状态,需要 Ceph 守护进程互相协调 。Monitors 也负责管理守护进程和客户端之间的认证 。通常需要至少三个 monitors 实现冗余和高可用性 。
通过 ceph -s 或 Dashboard 页面的 Cluster-Hosts 可以看到,默认启动了 5 个 mon 。一个或多个 mon 实例形成一个 Paxos 集群,提供可靠性 。可以使用 --placement 选项将 mon 部署在指定的节点上:
ceph orch apply mon --placement="ceph1.server.aiops.red,ceph2.server.aiops.red,ceph3.server.aiops.red"
Linux 9 部署 Ceph 分布式存储

文章插图
 
图 1-5, 部署 mon
1.3.8 部署 Manager
Ceph Manager daemon (ceph-mgr) 负责跟踪运行时指标和 Ceph 集群的当前状态,包括存储利用率、当前性能指标和系统负载 。Ceph Manager 守护进程还托管 Python 模块来管理和暴露 Ceph 集群的信息,包括基于 Web 的 Ceph Dashboard 和 REST API 。通常需要至少两个 Managers 来实现高可用性 。
通常与监控守护程序一起运行,以提供额外的监控和接口给外部监控和管理系统:
ceph orch apply mgr --placement="ceph1.server.aiops.red,ceph2.server.aiops.red,ceph3.server.aiops.red"
Linux 9 部署 Ceph 分布式存储

文章插图
 
图 1-6, 部署 mgr
1.3.9 为节点设置标签
Orchestrator 支持为主机分配标签 。每个主机可以有多个标签:
ceph orch host label add ceph4.server.aiops.red osd-node
Linux 9 部署 Ceph 分布式存储

文章插图
 
图 1-7, 为主机设置标签
1.4 总结
本章是 “Ceph 分布式存储最佳实践” 的开篇,主要介绍了 Ceph 集群的部署,以及一些基本概念 。通过对本章的学习,你将能够在基于 RPM 的 Linux 系统上部署 Ceph 分布式集群,并对集群做一些基本操作,如部署 OSD、Monitor、Manager,设置标签等 。
 
来源:魏文弟

【Linux 9 部署 Ceph 分布式存储】


推荐阅读