ceph crush算法分析

cephLuminouscrushDevice Class(crush设备分类Luminous版ceph引入了设备类来解决我们日常生活中,在同一台主机下,或者不同主机下混用ssd、nvme、sas硬盘的问题 。相关:crush,osd,pool,cachecephVersion:nautiluscephdeploy版本:2.0.1在基本使用需求下 , 一般要求存储集群提供高性能存储(SSD)和普通存储(hdd) 。
【ceph crush算法分析】
1、「精心整理」Ceph搭建硬件建议详解Ceph专门设计为在商用硬件上运行,这使得构建和维护超大规模数据集群在经济上是可行的 。规划集群硬件时,您需要平衡一些考虑因素,包括容错域和潜在的性能问题 。硬件规划应该包括在许多主机上分发Ceph守护进程和其他使用Ceph的进程 。一般来说,我们建议在为此类守护程序配置的主机上运行特定的Ceph守护程序 。

所以你的元数据处理器应该有相当大的处理能力(四核或者更高的CPU) 。CephOSDs运行RADOS服务 , 使用CRUSH计算数据放置 , 复制数据,并维护自己的集群映射副本 。所以OSD要有合理的处理能力(比如双核处理器) 。监视器只维护集群映射的主副本,因此监视器不需要CPU密集型处理能力 。

2、深挖Kubernetes存储为何如此难及其解决方案以Kubernetes为代表的容器编排器正在应用开发和部署领域发挥着颠覆性的作用 。随着微服务架构的发展 , 从开发者的角度来看,应用逻辑架构和基础架构开始解耦,这意味着开发者可以更专注于软件构建和价值交付 。在管理Docker图片时 , Kubernetes也让实际应用变得非常方便灵活 。在使用Kubernetes部署容器架构的应用时,管理员会将其部署在任何地方,包括公有云、混合云甚至私有云,无需修改底层代码 。

与之相对应的是,现在的大部分应用都是有状态的 , 换句话说,在某种程度上要求它们与外部存储资源进行协作 。Kubernetes架构本身非常灵活 , 可以根据开发者的需求、规范和实际负载 , 随意创建和取消容器 。此外 , Pod和container还具有自我修复和复制的能力 。所以本质上,他们的生命周期一般都很短 。

3、Ceph:一个LinuxPB级分布式文件系统Ceph最初是一个关于存储系统的博士研究项目 , 由加州大学圣克鲁斯分校(UCSC)的SageWeil实现 。但是到2010年3月底,你可以在主线Linux内核中找到Ceph(从2.6.34版开始) 。尽管Ceph可能不适合生产环境,但它对于测试目的仍然非常有用 。本文讨论了Ceph文件系统及其独特的功能 , 这些功能使它成为可伸缩分布式存储最有吸引力的替代方案 。

    推荐阅读