草庐IT

8s-apiserver

全部标签

k8s中如何使用gpu、gpu资源讲解、nvidia gpu驱动安装

前言环境:centos7.9、k8s1.22.17、docker-ce-20.10.9gpu资源也是服务器中常见的一种资源,gpu即显卡,一般用在人工智能、图文识别、大模型等领域,其中nvidiagpu是nvidia公司生产的nvidia类型的显卡,amdgpu则是adm公司生产的amd类型gpu。企业中服务器最常见的就是英伟达gpu服务器了。本篇也主要讲解英伟达驱动相关的知识。nvidiagpu驱动安装nvidiagpu驱动安装只是涉及物理节点的驱动安装,不涉及k8s,这里简单讲解一下gpu服务器如何安装nvidia驱动。环境确认、卸载nouveau#查看服务器是否有gpu [root@

Kubernetes(k8s)集群部署----->超详细

Kubernetes(k8s)集群部署----->超详细一、资源准备二、安装准备2.1主机环境设置2.1.1关闭操作系统防火墙、selinux2.1.2关闭swap交换分区2.1.3允许iptables检测桥接流量(可选)2.2安装Docker环境2.3安装Kubeadm、Kubelet和Kubectl2.3.1配置k8s的yum源(阿里云的源)2.3.2安装及版本检查2.3.3设置kubelet自启动2.3.4卸载三、Kubernetes集群所需的镜像拉取3.1生成一个默认kubeadm初始化配置文件3.2列出当前Kubernetes集群所需的所有镜像列表及其版本信息3.3拉取所k8s需要的

K8S部署Prometheus

前言:zabbix与prometheus的区别和Zabbix类似,Prometheus也是一个近年比较火的开源监控框架,和Zabbix不同之处在于Prometheus相对更灵活点,模块间比较解耦,比如告警模块、代理模块等等都可以选择性配置。服务端和客户端都是开箱即用,不需要进行安装。zabbix则是一套安装把所有东西都弄好,很庞大也很繁杂。zabbix的客户端agent可以比较方便的通过脚本来读取机器内数据库、日志等文件来做上报。而Prometheus的上报客户端则分为不同语言的SDK和不同用途的exporter两种,比如如果你要监控机器状态、mysql性能等,有大量已经成熟的exporter

【云原生】K8S的安全机制

前言:机制Kubernetes作为一个分布式集群的管理工具,保证集群的安全性是其一个重要的任务。APIServer是集群内部各个组件通信的中介,也是外部控制的入口。所以Kubernetes的安全机制基本就是围绕保护APIServer来设计的。比如kubectl如果想向APIServer请求资源,需要过三关,第一关是认证(Authentication),第二关是鉴权(Authorization),第三关是准入控制(AdmissionControl),只有通过这三关才可能会被K8S创建资源。一、kubernetes安全机制apiserver是k8s集群的入口,默认有两个端口:本地端口8080:用于

k8s 查看加入主节点命令 k8s重新查看加入节点命令 k8s输入删除,重新查看加入命令 kuberadm查看加入节点命令

1.使用kuberadm安装成功后,clear清除了屏幕数据,加入命令无法查看,使用如下,重新查看node如何加入主节点命令:kubeadmtokencreate--print-join-command--ttl0 2.画圈的全部是,都复制,在node节点输入命令即可如下:kubeadmjoin192.168.164.30:6443--token7w50wn.hz6i2mdtv0ivzddm--discovery-token-ca-cert-hashsha256:7e244b4696b83819e37856610e5dac54804e69118f197d6c3d13e184d1db677b  

通过containerd部署k8s集群环境及初始化时部分报错解决

目录一.基础环境配置(每个节点都做)1.hosts解析2.防火墙和selinux3.安装基本软件并配置时间同步4.禁用swap分区5.更改内核参数6.配置ipvs7.k8s下载(1)配置镜像下载相关软件(2)配置kubelet上的cgroup二.下载containerd(每个节点都做)1.下载基本软件2.添加软件仓库信息3.更改docker-ce.repo文件4.下载containerd并初始化配置5.更改containerd上的cgroup6.修改镜像源为阿里7.配置crictl并拉取镜像验证三.master节点初始化(只在master做)1.生成并修改配置文件2.查看/etc/contai

在k8s上搭建elasticsearch 服务

DeployECKinyourKubernetesclusterDeployECKinyourKubernetescluster|ElasticCloudonKubernetes[2.1]|Elastic部署ElasticStack部署ElasticStack|凤凰架构1.安装ElasticSearch1.InstallcustomresourcedefinitionsandtheoperatorwithitsRBACrules:kubectlcreate-fhttps://download.elastic.co/downloads/eck/1.9.1/crds.yamlkubectlappl

第22关 深入解析K8s中的RBAC角色访问控制策略

------>课程视频同步分享在今日头条和B站大家好,我是博哥爱运维,在k8s上我们如何控制访问权限呢,答案就是Role-basedaccesscontrol(RBAC)-基于角色(Role)的访问控制,(RBAC)是一种基于组织中用户的角色来调节控制对计算机或网络资源的访问的方法。在早期的K8s版本,RBAC还未出现的时候,整个K8s的安全是较为薄弱的,有了RBAC后,我们可以对K8s集群的访问人员作非常明细化的控制,控制他们能访问什么资源,以只读还是可以读写的形式来访问,目前RBAC是K8s默认的安全授权标准,所以我们非常有必要来掌握RBAC的使用,这样才有更有力的保障我们的K8s集群的安

K8S系列文章之 使用Kind部署K8S 并发布服务

简单介绍kind 即KubernetesInDocker,顾名思义,就是将k8s所需要的所有组件,全部部署在一个docker容器中,是一套开箱即用的k8s环境搭建方案。使用kind搭建的集群无法在生产中使用,但是如果你只是想在本地简单的玩玩k8s,不想占用太多的资源,那么使用kind是你不错的选择。同样,kind还可以很方便的帮你本地的k8s源代码打成对应的镜像,方便测试。使用kind在一台centos上简单尝试一下kind,前提是必须要安装好docker和kubectl。wgethttps://github.com/kubernetes-sigs/kind/releases/download

K8S集群中Node节点资源不足导致Pod无法运行的故障排查思路

K8S集群中Node节点资源不足导致Pod无法运行的故障排查思路Node节点资源不足可能会产生的故障故障一:Pod数量太多超出物理节点的限制每一台Node节点中默认限制最多运行110个Pod资源,当一个应用程序有成百上千的Pod资源时,如果不扩容Node节点或者修改最大Pod数量限制,那么就会导致部分Pod资源无法正常运行,因为节点已经没有资源可以被调度了。解决思路就是扩容Node节点数量或者修改Pod的数量限制故障二:Pod配置的资源限额超出物理节点的最大使用率由于Node节点资源有限,当Pod设置的资源配额超出了Node节点所承受的极限,那么Pod将无法部署和运行,会报错没有合适的Node