草庐IT

k8s单机集群

全部标签

25-k8s集群中-RBAC用户角色资源权限

一、RBAC概述1,k8s集群的交互逻辑(简单了解)    我们通过k8s各组件架构,知道各个组件之间是使用https进行数据加密及交互的,那么同理,我们作为“使用”k8s的各种资源的使用者,也是通过https进行数据加密的;    k8s通过我们家目录下的证书来判断我们是谁?通过证书内容来认定我们的权限;用户证书的位置[root@k8s231~]#ll-a.kube/config -rw-------1rootroot5634Jan 119:40.kube/config2,k8s的安全架构(简单了解)3,RBAC用户授权的逻辑(重要)用户/主题Topic    1,User    2,Ser

Gitlab+Jenkins+Docker+Harbor+K8s集群搭建CICD平台(持续集成部署Hexo博客Demo)

目录涉及内容:一、CICD服务器环境搭建1、docker环境安装(1)、拉取镜像,启动并设置开机自启(2)、配置docker加速器2、安装并配置GitLab(1)、创建共享卷目录(2)、创建gitlab容器(3)、关闭容器修改配置文件(4)、修改完配置文件之后。直接启动容器(5)、相关的git命令(针对已存在的文件夹)3、安装配置远程镜像仓库harbor(1)、首先需要设置selinux、防火墙(2)、安装并启动docker并安装docker-compose,关于docker-compose,这里不用了解太多,一个轻量的docker编排工具(3)、解压harbor安装包:harbor-offl

K8S-1.23.17+Ceph+KubeSphere 一主二从部署攻略

K8S部署攻略此教程以一主二从为例,需要三台服务器。主机最低需求: 4核CPU,4GB内存,硬盘:20GBx2(需保留一个未分区的磁盘)从机最低需求: 4核CPU,8GB内存,硬盘:20GBx2(需保留一个未分区的磁盘) 软件版本:Ubuntu:22.04Kubesphere:3.4.1Docker:20.10.24K8s:1.23.17Rook:1.13.6 前置要求:集群中的所有机器的网络彼此均能相互连接(公网和内网都可以)。节点之中不可以有重复的主机名、MAC地址或product_uuid。 1. 配置Cgroup驱动sudomkdir-p/etc/dockersudotee/etc/d

Kubeadm部署K8s

Kubeadm部署K8s集群规划:Master节点规划:Node节点规划:安装要求在开始之前,部署Kubernetes集群机器需要满足以下几个条件:操作系统CentOS7.x-86_x64硬件配置:2GB或更多RAM,2个CPU或更多CPU,硬盘30GB或更多集群中所有机器之间网络互通可以访问外网,需要拉取镜像禁止swap分区此实验机器规划如下:k8s-master42.51.227.113Centos7.x-X86_64k8s-node142.51.227.114Centos7.x-X86_64k8s-node242.51.227.115Centos7.x-X86_64k8s-node342

超详细的 K8s 高频面试题,绝对实用篇

🏆作者简介,普修罗双战士,一直追求不断学习和成长,在技术的道路上持续探索和实践。🏆多年互联网行业从业经验,历任核心研发工程师,项目技术负责人。🎉欢迎👍点赞✍评论⭐收藏RabbitMQ/Kubernetes知识专栏学习Docker知识云集访问地址备注Docker知识点(1)https://blog.csdn.net/m0_50308467/article/details/134693497Docker专栏Kubernetes知识点(1)https://blog.csdn.net/m0_50308467/article/details/134693653Kubernetes专栏Kubernetes

Redis三种模式——主从复制、哨兵模式、集群

目录一、Redis模式二、Redis主从复制2.1主从复制概述2.2主从复制2.3Redis主从复制过程2.4搭建Redis主从复制2.4-1环境部署2.4-2安装Redis2.4-3修改Redis配置文件(Master节点操作)2.4-4修改Redis配置文件(Slave节点操作)2.4-5验证主从效果三、Redis哨兵模式3.1哨兵模式的作用3.2故障转移机制3.3主节点的选举3.4搭建Redis哨兵模式3.4-1验证主从效果修改Redis哨兵模式的配置文件(所有节点操作)3.4-2启动哨兵模式3.4-3查看哨兵信息3.4-4故障模拟四、Redis群集模式4.1集群的作用4.2Redis集

探索Kubernetes与AI的结合:PyTorch训练任务在k8s上调度实践

概述Kubernetes的核心优势在于其能够提供一个可扩展、灵活且高度可配置的平台,使得应用程序的部署、扩展和管理变得前所未有的简单。通用计算能力方面的应用已经相对成熟,云原生化的应用程序、数据库和其他服务可以轻松部署在Kubernetes环境中,实现高可用性和弹性。然而,当涉及到异构计算资源时,情形便开始变得复杂。异构计算资源如GPU、FPGA和NPU,虽然能够提供巨大的计算优势,尤其是在处理特定类型的计算密集型任务时,但它们的集成和管理却不像通用计算资源那样简单。由于硬件供应商提供的驱动和管理工具差异较大,Kubernetes在统一调度和编排这些资源方面还存在一些局限性。这不仅影响了资源的

4万亿个晶体管,单机可训练比GPT4大10倍的模型,最快最大的芯片面世

刚刚,芯片创业公司Cerebras宣布了该公司历史上最重要的消息,「我们发布了世界上最快的芯片,该芯片拥有高达4万亿个晶体管。」一直以来,Cerebras一直在往「大」的芯片方面发展,此前他们发布的晶圆级引擎(WaferScaleEngine,WSE-1)面积比iPad还大。第二代WSE-2虽然在面积上没有变化,但却拥有惊人的2.6万亿个晶体管以及85万个AI优化的内核。而现在推出的WSE-3包含4万亿个晶体管,在相同的功耗和价格下,WSE-3的性能是之前记录保持者WSE-2的两倍。此次发布的WSE-3是专为训练业界最大的AI模型而打造的,基于5纳米、4万亿晶体管的WSE-3将为Cerebra

Meta新增两大万卡集群,投入近50000块英伟达H100 GPU

Meta日前推出两个功能强大的GPU集群,用于支持下一代生成式AI模型的训练,包括即将推出的Llama3。据悉,这两个数据中心的GPU数量均高达24,576块,专为支持比之前发布的更大、更复杂的生成式AI模型而构建。作为一种流行的开源算法模型,Meta的Llama能与OpenAI的GPT和Google的Gemini相媲美。Meta刷新AI集群规模 极客网了解到,这两个GPU集群都采用了英伟达当前功能最强大的H100GPU,并且比Meta之前推出的大型集群规模要大得多。此前Meta的集群约有16,000块NvidiaA100GPU。据报道,Meta为此抢购了数千块英伟达最新推出的GPU。调研机构

CentOS 7.9 环境下搭建k8s集群(一主两从)

目录一、硬件准备(虚拟主机)二、环境准备1、所有机器关闭防火墙2、所有机器关闭selinux3、所有机器关闭swap4、所有机器上添加主机名与ip的对应关系5、在所有主机上将桥接的ipv4流量传递到iptables的链三、为所有节点安装docker四、集群部署1、为所有节点修改仓库,安装kubeadm、kubelet、kubectl2、修改docker的配置(所有节点)3、部署master节点(主节点k8s-master)(1)、遇到报错:(2)、解决办法:4、按照指示执行:5、查看kubelet.service状态6、查看节点状态为notready7、安装网络插件,官方文档:https://