草庐IT

OpenStack+Ceph集群 计算节点执行nova list提示ERROR (CommandError): You must provide a user name/id

排错的时候在计算节点执行了novalist查看实例情况结果提示ERROR(CommandError):Youmustprovideausername/id(via--os-username,--os-user-id,env[OS_USERNAME]orenv[OS_USER_ID])oranauthtoken(via--os-token).看来是没有配置keystone鉴权信息的原因创建鉴权信息vi~/keystonerc输入控制节点的鉴权信息exportOS_PROJECT_DOMAIN_NAME=defaultexportOS_USER_DOMAIN_NAME=defaultexportO

Ceph入门到精通-iptables 限制多个ip 的多个端口段访问

要使用iptables限制多个IP的多个端口范围的访问,可以使用以下命令:iptables-AINPUT-ptcp-mmultiport--dports端口段-miprange--src-range起始IP-结束IP-jDROP上面的命令将添加一条规则到INPUT链中,该规则将禁止指定IP范围访问指定的端口段。其中,端口段是指你要限制的端口范围,例如:80:100表示限制80到100的端口范围;起始IP-结束IP是指你要限制的IP范围,例如:192.168.1.100-192.168.1.200表示限制从192.168.1.100到192.168.1.200之间的IP。例如,如果你想限制IP范

基于kubesphere的k8s环境部署单点版本的rook-ceph

文章目录前言一、rook-ceph是什么?二、开始部署1.环境准备2.软件包准备3.下载rook-ceph文件4.部署operator5.创建ceph集群6.创建工具容器,检查集群状态7.准备dashboard的nodeport端口映射服务8.准备prometheus的metric端口映射服务总结前言基于kubesphere的k8s环境部署单点版本的rook-ceph,实验性质大于使用性质,不推荐在物理资源有限的情况下使用。一、rook-ceph是什么?Rookisanopensourcecloud-nativestorageorchestrator,providingtheplatform,

Ceph的文件系统架构及使用实战

Ceph提供了块、对象和文件等多种存储形式,实现了统一存储。前文说过,Ceph的对象存储基于RADOS集群。Ceph的文件系统也是基于RADOS集群的,也就是说Cephfs对用户侧呈现的是文件系统,而在其内部则是基于对象来存储的。CephFS是分布式文件系统,这个分布式从两个方面理解,一个方面是底层存储数据依赖的是RADOS集群;另外一个方面是其架构是CS(客户端-服务端)架构,文件系统的使用是在客户端,客户端与服务端通过网络通信进行数据交互,类似NFS。图片如图所示客户端通过网络的方式连接到Ceph集群,Ceph集群的文件系统映射到客户端,呈现为一个本地的目录树。从用户的角度来看,这个映射是

云原生之深入解析分布式存储系统Ceph的环境部署和实战操作

一、Ceph简介①什么是Ceph?Ceph是当前非常流行的开源分布式存储系统,具有高扩展性、高性能、高可靠性等优点,同时提供块存储服务(rbd)、对象存储服务(rgw)以及文件系统存储服务(cephfs),Ceph在存储的时候充分利用存储节点的计算能力,在存储每一个数据时都会通过计算得出该数据的位置,尽量的分布均衡。目前,Ceph也是OpenStack的主流后端存储。②Ceph特点高性能:摒弃了传统的集中式存储元数据寻址的方案,采用CRUSH算法,数据分布均衡,并行度高;考虑了容灾域的隔离,能够实现各类负载的副本放置规则,例如跨机房、机架感知等;能够支持上千个存储节点的规模,支持TB到PB级的

Ceph 使用 NVME 是否可以实现 10k 混合 IOPS ?

最近,cephsubreddit上的一位用户提了一个问题:在一个由6个节点组成,每个节点有2个4GBFireCudaNVMe磁盘的集群中,Ceph是否可以为单个客户端提供10KIOPs的组合随机读/写能力。该用户也想知道是否有人对类似的场景进行过测试并希望能够共享一下测试结果。在Clyso项目组中,我们一直在积极努力改进Ceph代码以实现更高的性能。我们有自己的测试和配置来评估我们对代码的更改。正好,我们当前有可以匹配该用户测试场景的硬件环境。因此,我们决定花些时间来进行测试以及验证。用户环境配置用户的环境包含6个节点,每个节点都有2个4TB希捷FireCudaNVMe驱动器和64GB内存。关

Ceph集群搭建

环境准备:主机名IP(外)IP(内网)ceph-01192.168.0.11410.1.1.11ceph-02192.168.0.11510.1.1.12ceph-03192.168.0.11610.1.1.131、修改主机名,主机之间相互解析,设置ssh免密登录。[root@ceph-01~]#ssh-keygen##所有节点生成密钥文件[root@ceph-03~]#ssh-copy-id-i~/.ssh/id_rsa.pubceph-01##在所有节点执行[root@ceph-01~]#scp~/.ssh/authorized_keysceph-02:~/.ssh/##拷贝公钥到其他节点

Ceph集群-2·创建部署

一、环境准备拓扑图1台客户端虚拟机:Client3台存储集群虚拟机:node1~3存储集群虚拟机IP地址分别为:192.168.88.11~13每台存储集群虚拟机至少要有2g的内存每台存储集群虚拟机需要含有2块空闲硬盘每台存储集群虚拟机搭建好yum等服务实验拓扑.png二、Ceph:分布式存储集群部署流程思路环境准备配置NTP服务安装软件包创建集群创建OSD存储空间所有节点:添加2块额外的硬盘所有节点:配置yum服务端和客户端选出一台存储集群虚拟机作为控制节点,配置到所有节点的免密登录在所有的节点主机上配置名称解析(hosts)在所有节点上安装软件包(ceph-monceph-osdceph-

Ceph集群-1·概念介绍

一、Ceph是什么?ceph被称作面向未来的存储ceph是一个分布式的存储系统ceph具有高扩展性(如果需要扩容,只要向ceph集中增加服务器即可)ceph具有高可用性(一个文件至少要存3份,ceph默认是三副本存储)ceph还具有高性能的特点中文地址https://access.redhat.com/documentation/zh-cn/red_hat_ceph_storage/5/html/architecture_guide/index二、Ceph产品特点:Ceph产品特点.png三、Ceph可以实现的存储方式:块存储:提供像普通硬盘一样的存储(镜像),为使用者提供“硬盘”。文件系统存

PVE超融合之路-Ceph安装

PVE7.2-11安装Ceph实验环境:VMwareWorkstationg15ProProxmoxVE(ProxmoxVirtualEnvironment)系统基于Debian系统内核,在安装或更新系统的时候,使用官方自带源因为官方源在国外的缘故,速度慢且失败的概率高,几百兆的更新速度只有几十k甚至几K的情况。…ProxmoxVE(ProxmoxVirtualEnvironment)系统软件源所有基于Debian的操作系统都使用APT命令作为软件包管理工具。软件源列表定义在/etc/apt/sources.list文件中,以及/etc/apt/sources.d目录下后缀名为.list的文件