ceph pg分析,Ceph pg

ceph(第二步 , 部署ceph存储集群 。ceph-objectstore-tool toolceph提供了用于操作pg和pg中的对象的工具,ceph(第三步,开始使用a ceph cluster,例如 , pg1.1是markcomplete,首先比较pg1.1 pg主副本中的对象数量,导入到对象较少的pg中 。
1、显示Ceph集群中每个OSD包含多少PGs要显示Ceph cluster中每个OSD包含的PG的数量,可以使用以下方法:$cephformat XMLpgdump | \ xmlstarletseltm//pg_ stats/pg_ stat/actingvosdn | \ Sortn | uniqc 9232633
以下方法可以显示指定池的PG信息:cephformat XMLpgdump | \ xmlstarletseltm/pg_ stats/pg_ stat seph设计为在商用硬件上运行 。规划集群硬件时 , 您需要平衡一些考虑因素 , 包括容错域和潜在的性能问题 。硬件规划应该包括在许多主机上分发Ceph守护进程和其他使用Ceph的进程 。一般来说,我们建议在为此类守护程序配置的主机上运行特定的Ceph守护程序 。
所以你的元数据处理器应该有相当大的处理能力(四核或者更高的CPU) 。CephOSDs运行RADOS服务 , 使用CRUSH计算数据放置,复制数据,并维护自己的集群映射副本 。所以OSD要有合理的处理能力(比如双核处理器) 。监视器只维护集群映射的主副本,因此监视器不需要CPU密集型处理能力 。
2、 ceph-objectstore-tool工具【ceph pg分析,Ceph pg】 ceph提供了用于操作pg和pg中的对象的工具 。几个常用的例子一般用来解决pg状态不对,比如不完整 。在这种情况下,pg将被导出 , 然后再导入 。例如,pg1.1是markcomplete 。首先比较pg1.1 pg主副本中的对象数量,导入到对象较少的pg中 。
3、Ceph架构与原理Ceph是一个开源项目,提供软件定义的统一存储解决方案 。Ceph是一个高性能、高可扩展性、大规模扩展、无单点故障的分布式存储系统 。Ceph是软件定义的存储解决方案 。Ceph是一个统一存储解决方案 。Ceph是一个具有高可用性和高可扩展性的云存储解决方案 。Ceph独特的统一系统提供了对象存储、块存储和文件存储功能 。Ceph存储集群由几个不同的软件守护进程组成(最重要的两个是MON和OSD),每个守护进程负责Ceph的一个独特功能,并为相应的组件添加值 。
也称为Ceph存储集群 。Ceph的数据访问方法(如RBD、CephFS、radosGW、librados)的所有操作都构建在RADOS层上 。当Ceph集群收到来自客户端的请求时,CRUSH算法首先计算存储位置,最后将这些对象存储在OSD中 。当配置的复制数量大于1时,RADOS负责将数据分发到集群中的所有节点 。
4、 ceph(第三步系统以ceph cluster开始 。本文将系统地介绍如何使用a ceph cluster 。涉及:crush、osd、pool、cache ceph版本:nautilus cephdeploy版本:2.0.1在基本使用需求下,一般要求存储集群提供高性能存储(SSD)和普通存储(hdd) 。在ceph中,有些池使用高性能存储 , 有些池使用普通存储 。
ceph提供了缓存的概念 。在普通存储池之上设置高性能缓存池 。外部访问将首先到达缓存池,然后在未命中时访问存储池 。这里需要提到的是 , 缓存并不是在所有情况下都是必要的 。根据不同的场景,ceph可以有多种用法 。这里的介绍只能简单,但会尽量全面 。一个标准场景:一个存储池加一个缓存池 , 存储池使用普通设备,缓存池使用高性能设备 。
5、 ceph:rados浅析在传统的分布式存储架构中,存储节点往往只是作为被动的查询对象 。随着存储规模的增加,数据一致性管理会出现很多问题 。然而,新的存储架构倾向于将基本的块分配决策和安全保证留给存储节点,然后通过倡导客户端和存储节点之间的直接交互来简化数据布局和减少io瓶颈 。RADOS就是这样一个可扩展的、可靠的对象存储服务 , 可用于PB级的数据存储集群 。
通过使用存储设备的智能,它将一致的数据访问、冗余存储、错误检测和错误恢复等功能分布到包含数千个存储节点的集群中,而不是仅依靠几个管理节点来处理它们 。RADOS中的存储节点被称为OSD(objectstoragedevice),它只能由非常常见的组件组成,包括CPU、网卡、本地缓存和一个磁盘或RAID,传统的块存储方式被面向对象存储取代 。
6、 ceph(第二步使用cephdeploy工具部署ceph存储群集 。使用虚拟机构建三节点ceph存储集群 。始终使用根权限 。虚拟化软件:vmware虚拟机操作系统:centos7.6每台虚拟机配置:2G内存,一个系统盘(50G),两个ceph要用的硬盘(每个20G)虚拟机网络:一个虚拟机之间可以互相通信,可以上网的网络就够了(NAT) 。共三台虚拟机:ceph01、ceph02、ceph03 ceph版本:nautilusceph部署版本:2 。
与ceph01、ceph02和ceph03对应的地址分别为:10.10.31、10.10.10.32和10.10.0 。所有机器都配置了yum国产加速来源:所有机器都配置了pip国产加速来源:这里配置了部署节点和其他机器之间的主机解析 。

    推荐阅读