Rook搭建Ceph一、软件版本及先决条件 软件版本: 软件版本名称软件版本号Pacific16.2.7RookV1.9 先决条件:K8s集群,1.16版本+K8s至少3个工作节点每个工作节点至少有一块未使用的硬盘Rook仅支持部署CephNautilus以上版本二、搭建Rook1.下载代码 wgethttps://github.com/rook/rook/archive/refs/tags/v1.9.0.tar.gz2.拉取所需镜像此处注意: 因为不熟需要的部分镜像国内无法下载,所以需要修改国内源或者国内源
本文主要介绍ceph16版本集群节点系统磁盘故障后的集群恢复,虽然系统盘很多都是做了raid1,但从实际做的项目看,总是有很多未知意外发生,节点挂掉后,上面的mon和osd,mgr都会down掉,如果所在节点的mgr服务是激活状态,则其他节点所在的备用节点将会升级为激活状态。移除问题主机节点挂掉后,在确定不能继续开机进入系统的情况下,需要在其他正常的节点将故障节点进行移除,此次宕机的节点为node4,以下命令可能会导致数据丢失,因为osd将通过调用每个osd来强制从集群中清除。cephorchhostrmnode4--offline--force节点初始化操作将node4节点即故障节点更换新的
本文主要介绍ceph16版本集群节点系统磁盘故障后的集群恢复,虽然系统盘很多都是做了raid1,但从实际做的项目看,总是有很多未知意外发生,节点挂掉后,上面的mon和osd,mgr都会down掉,如果所在节点的mgr服务是激活状态,则其他节点所在的备用节点将会升级为激活状态。移除问题主机节点挂掉后,在确定不能继续开机进入系统的情况下,需要在其他正常的节点将故障节点进行移除,此次宕机的节点为node4,以下命令可能会导致数据丢失,因为osd将通过调用每个osd来强制从集群中清除。cephorchhostrmnode4--offline--force节点初始化操作将node4节点即故障节点更换新的
本文介绍在国产化操作系统和服务器上进行ceph集群的安装。基础配置操作系统使用银河kylinv10,CPU为飞腾处理器S2500。[root@node1~]#cat/etc/kylin-releaseKylinLinuxAdvancedServerreleaseV10(Sword)[root@node1~]#lscpu架构:aarch64CPU运行模式:64-bit字节序:LittleEndianCPU:128在线CPU列表:0-127每个核的线程数:1每个座的核数:64座:2NUMA节点:16厂商ID:Phytium型号:3型号名称:Phytium,S2500/64C00步进:0x1CPU最
本文介绍在国产化操作系统和服务器上进行ceph集群的安装。基础配置操作系统使用银河kylinv10,CPU为飞腾处理器S2500。[root@node1~]#cat/etc/kylin-releaseKylinLinuxAdvancedServerreleaseV10(Sword)[root@node1~]#lscpu架构:aarch64CPU运行模式:64-bit字节序:LittleEndianCPU:128在线CPU列表:0-127每个核的线程数:1每个座的核数:64座:2NUMA节点:16厂商ID:Phytium型号:3型号名称:Phytium,S2500/64C00步进:0x1CPU最
Ceph仪表板和登陆页面CephDashboard是一个基于Web的管理和监控应用程序,我们可以通过它检查和控制Ceph集群中的各个方面和资源。它作为CephManagerDaemon模块实现,并且是其中不可或缺的一部分。具体信息如链接(https://docs.ceph.com/en/quincy/mgr/dashboard/#overview)。CephDashboard的登录页面作为主页,包含集群整体状态、性能和容量等指标。它提供有关集群实时管理功能,允许通过页面管理Ceph的大部分功能。随着Ceph仪表板添加新的特性和功能,登录页面也做了些更新:Goals该项目的目标是增强登录页面的用
Ceph仪表板和登陆页面CephDashboard是一个基于Web的管理和监控应用程序,我们可以通过它检查和控制Ceph集群中的各个方面和资源。它作为CephManagerDaemon模块实现,并且是其中不可或缺的一部分。具体信息如链接(https://docs.ceph.com/en/quincy/mgr/dashboard/#overview)。CephDashboard的登录页面作为主页,包含集群整体状态、性能和容量等指标。它提供有关集群实时管理功能,允许通过页面管理Ceph的大部分功能。随着Ceph仪表板添加新的特性和功能,登录页面也做了些更新:Goals该项目的目标是增强登录页面的用
通常情况下,我们需要为Kubernetes平台找到一种易于使用、可靠的块存储。因此,本文将对几个开源存储解决方案进行基准测试,以了解它们在各种条件下的性能。本次对比也是在不同硬件配置条件下对DRBD(https://en.wikipedia.org/wiki/Distributed_Replicated_Block_Device)进行测试以及与Ceph(https://ceph.io/en/)的测试结果比较。然而,软件定义存储市场在不断发展和演变。新的项目不断的涌现,包括最近发布的Mayastor(https://github.com/openebs/mayastor)和Vitast
通常情况下,我们需要为Kubernetes平台找到一种易于使用、可靠的块存储。因此,本文将对几个开源存储解决方案进行基准测试,以了解它们在各种条件下的性能。本次对比也是在不同硬件配置条件下对DRBD(https://en.wikipedia.org/wiki/Distributed_Replicated_Block_Device)进行测试以及与Ceph(https://ceph.io/en/)的测试结果比较。然而,软件定义存储市场在不断发展和演变。新的项目不断的涌现,包括最近发布的Mayastor(https://github.com/openebs/mayastor)和Vitast
一、Pool相关操作自恢复力:你可以设置在不丢数据的前提下允许多少OSD失效,对多副本存储池来说,此值是一对象应达到的副本数。典型配置存储一个对象和它的一个副本(即size=2),但你可以更改副本数;对纠删编码的存储池来说,此值是编码块数(即纠删码配置里的m=2)。归置组:你可以设置一个存储池的归置组数量。典型配置给每个OSD分配大约100个归置组,这样,不用过多计算资源就能得到较优的均衡。配置了多个存储池时,要考虑到这些存储池和整个集群的归置组数量要合理。CRUSH规则:当你在存储池里存数据的时候,与此存储池相关联的CRUSH规则集可控制CRUSH算法,并以此操纵集群内对象及其副本的复制(或