草庐IT

用Ceph搭个私人NAS网盘!

目录image.png前言为什么要搭建一个NAS因为存储空间不够了。本人有保留文档的习惯,自己经手过的东西,写的代码、自己做的视频、看过的书、看过的电影我都希望一直保留下来。所以数据越来越多,而一个移动硬盘只有4TB的空间,存不下。所以需要搭建一个NAS来扩大存储空间。而且用移动硬盘还有一个风险,万一哪天这个盘坏掉了,我的数据就全部丢失了。所以除了扩大空间之外,需要做数据冗余。因此这就引出了我的两大需求:扩大存储空间、数据冗余。那么我如何来满足这两大需求?Ceph是什么Ceph是一种为优秀的性能、可靠性和可扩展性而设计的统一的、分布式文件系统。可靠性是指Ceph本身支持容错,数据存储在Ceph

Ceph RADOS Gateway安装,你学会了吗?

什么是对象存储对象存储以独立的对象的形式管理数据,而不是传统的文件层次结构或块存储的形式。每个对象包括数据、元数据和唯一标识符。元数据是描述数据的信息,比如创建日期、类型和其他相关信息。 主要用于非结构化数据,例如多媒体内容、备份数据、分析数据等,以及任何需要大规模、易于访问和经济有效的数据存储的应用。AmazonS3、GoogleCloudStorage和OpenStackSwift是一些常见的公有云对象存储服务。在私有云或本地环境中,Ceph和MinIO是两个常见的对象存储系统。 与文件存储不同,对象存储不使用目录树结构。它把所有的数据都看作是对象,每个对象都由一个唯一的ID标识。对象包括

中兴新支点系统离线安装ceph 16.2.10

关于中兴新支点系统中兴新支点操作系统基于Linux稳定内核,分为嵌入式操作系统(NewStartCGEL)、服务器操作系统(NewStartCGSL)、桌面操作系统(NewStartNSDL),经过近10年专业研发团队的积累和发展,产品形成安全加固、自主可控、易用管理的突出优势。目前,中兴新支点操作系统已在国内外各大电信运营商、国有大中型企业及电子政务解决方案中投入使用,服务于交换网络、核心网络、骨干网络、智慧城市、视频监控等系统底层。以上转自某乎。背景在国家数字化转型和国产化替代的大背景下,尤其是政务类项目,现在基本用国产化的CPU和操作系统来承载其业务,实现自主创新和安全可靠。本文在中兴新

Ceph集群mon节点告警case---low diskspace

ceph运营篇mon节点出现如下告警:虽然文件系统显示根分区用了百分之六十八,但在ceph里面计算方式以及告警阈值设置不一样,故会根据不通设置告警。 查看/var/log/ceph/ceph.mon.node-3.log解决思路:一、删除根据目录下的没用的大文件;二、调整告警阈值、其中调整阈值方法如下:需要在三个节点执行如下命令:ceph--admin-daemon/var/run/ceph/ceph-mon.node-1.asokconfigsetmon_data_avail_warn20#节点node-1执行ceph--admin-daemon/var/run/ceph/ceph-mon.

K8s使用Ceph作为后端存储

Ceph概述部署Ceph集群Ceph存储使用Pod使用Ceph持久化数据Ceph监控Rook部署Ceph1❖Ceph概述Ceph介绍Ceph架构Ceph核心概念Ceph介绍Ceph是一个开源的分布式存储系统,具有高扩展性、高性能、高可靠性等特点,提供良好的性能、可靠性和可扩展性。支持对象存储、块存储和文件系统。是目前为云平台提供存储的理想方案。Ceph架构RBD(RADOSBlockDevice):块存储接口RGW(RADOSGateway)):对象存储网关,接口与S3和Swift兼容CephFS(CephFileSystem):文件级存储接口RADOS(ReliableAutonomicDi

Minio VS Ceph

1.概述2.对比[2.1.软件整体对比12](#21-软件整体对比1-2)2.1.1.语言与代码量及技术栈2.1.1.1.编译时间2.1.1.2.技术栈[2.1.2.License3](#212-license–4)2.1.2.1.LGPL2.1.2.2.AGPLv32.1.3.文档2.1.4.社区支持2.2.对象存储功能对比2.2.1.数据存储2.3.致命问题2.3.1.单盘极端情况下影响整个集群2.3.2.元数据过大导致静默校验卡IO2.3.3.数据平衡过程中性能损耗2.3.4.单集群规模受限2.3.5.集群联邦2.3.6.数据分布算法3.总结3.1.Minio3.1.1.优势3.1.2.

Minio VS Ceph

1.概述2.对比[2.1.软件整体对比12](#21-软件整体对比1-2)2.1.1.语言与代码量及技术栈2.1.1.1.编译时间2.1.1.2.技术栈[2.1.2.License3](#212-license–4)2.1.2.1.LGPL2.1.2.2.AGPLv32.1.3.文档2.1.4.社区支持2.2.对象存储功能对比2.2.1.数据存储2.3.致命问题2.3.1.单盘极端情况下影响整个集群2.3.2.元数据过大导致静默校验卡IO2.3.3.数据平衡过程中性能损耗2.3.4.单集群规模受限2.3.5.集群联邦2.3.6.数据分布算法3.总结3.1.Minio3.1.1.优势3.1.2.

ceph状态报:pgs not deep-scrubbed in time

问题描述ceph-s状态输出如下:分析过程scrubbed功能用于PG,是为了检测PG分布到各osds上的数据是否一致,deep-scrubbed的检测模式除了检测数据的元数据信息外,还会检测数据的内容是否一致,速度较慢且消耗磁盘读取,一般设置在晚上进行scrubbed,如果超过了设定时间,若有PG未进行deep-scrubbed,就会报警了解决办法**先查看哪些PG需要deep-scrubbed**cephhealthdetail再批量执行手动deep-scrubbed有规律就好办了:cephpgdeep-scrubPG_IDforiin`seq07`;docephpgdeep-scrub3

基于kubesphere的k8s环境部署三节点的rook-ceph集群

文章目录前言链接:[基于kubesphere的k8s环境部署单点版本的rook-ceph](https://blog.csdn.net/baidu_35848778/article/details/131050918)一、rook-ceph是什么?二、开始部署2.1环境准备2.2软件包准备,计算\存储节点执行2.3下载rook-ceph文件2.4部署operator2.5创建ceph集群2.6创建工具容器,检查集群状态2.7准备dashboard的nodeport端口映射服务2.8准备prometheus的metric端口映射服务三、创建存储类3.1创建cephrbd存储类3.2创建cephf