将集群中任何可用的设备作为 OSD:
[root@ceph1 ~]# ceph orch Apply osd --all-available-devices Scheduled osd.all-available-devices update...
再次检查集群状态:
ceph -s
文章插图
图 1-3, 集群状态变为健康
集群健康状态变为 OK 。
查看 OSD:
ceph osd tree文章插图
图 1-4, 查看 OSD 信息
1.3.7 部署 Monitor
Ceph Monitor (ceph-mon) 维护集群状态的 maps,包括 monitor map、manager map、OSD map、MDS map 以及 CURSH map 。这些 maps 是重要的集群状态,需要 Ceph 守护进程互相协调 。Monitors 也负责管理守护进程和客户端之间的认证 。通常需要至少三个 monitors 实现冗余和高可用性 。
通过 ceph -s 或 Dashboard 页面的 Cluster-Hosts 可以看到,默认启动了 5 个 mon 。一个或多个 mon 实例形成一个 Paxos 集群,提供可靠性 。可以使用 --placement 选项将 mon 部署在指定的节点上:
ceph orch apply mon --placement="ceph1.server.aiops.red,ceph2.server.aiops.red,ceph3.server.aiops.red"文章插图
图 1-5, 部署 mon
1.3.8 部署 Manager
Ceph Manager daemon (ceph-mgr) 负责跟踪运行时指标和 Ceph 集群的当前状态,包括存储利用率、当前性能指标和系统负载 。Ceph Manager 守护进程还托管 Python 模块来管理和暴露 Ceph 集群的信息,包括基于 Web 的 Ceph Dashboard 和 REST API 。通常需要至少两个 Managers 来实现高可用性 。
通常与监控守护程序一起运行,以提供额外的监控和接口给外部监控和管理系统:
ceph orch apply mgr --placement="ceph1.server.aiops.red,ceph2.server.aiops.red,ceph3.server.aiops.red"文章插图
图 1-6, 部署 mgr
1.3.9 为节点设置标签
Orchestrator 支持为主机分配标签 。每个主机可以有多个标签:
ceph orch host label add ceph4.server.aiops.red osd-node文章插图
图 1-7, 为主机设置标签
1.4 总结
本章是 “Ceph 分布式存储最佳实践” 的开篇,主要介绍了 Ceph 集群的部署,以及一些基本概念 。通过对本章的学习,你将能够在基于 RPM 的 Linux 系统上部署 Ceph 分布式集群,并对集群做一些基本操作,如部署 OSD、Monitor、Manager,设置标签等 。
来源:魏文弟
【Linux 9 部署 Ceph 分布式存储】
推荐阅读
- 学linux有前途吗,linux发展前景分析
- win10安装linux有什么方法,win10安装linux子系统教程
- 学linux有前途吗,linux技术前景分析
- Linux的用户为何常年上不去?
- 工作安排部署怎么写,日常工作安排表范本
- 服务器该选择windows系统还是linux系统? 服务器系统
- 美国入侵格林纳达有哪些战略部署 美国入侵格林纳达开创了什么战争新模式
- linux,下如何完全删除用户 怎样删除用户账户
- 初入职场的我认识到linux的重要性
- Linux 9 自动化部署 Kafka 集群
