草庐IT

k8s Deployment

全部标签

18-k8s控制器资源-cronjob控制器

    job控制器是执行完一次任务,就结束;    cronjob控制器,是基于job控制器,定期频率性执行任务;等同于linux系统中的crontab一样;1,编辑cronjob资源清单[root@k8s231pi]#vimcronjob.yamlapiVersion:batch/v1kind:CronJobmetadata: name:xinjizhiwaspec: schedule:"*****" #定义job的模板 jobTemplate:  spec:   template:    spec:     containers:     -name:c1      image:alpi

【梳理】k8s使用Operator搭建Flink集群(高可用可选)

文章目录1.架构图2.helm安装operator3.集群知识k8s上的两种模式:Native和Standalone两种CR4.运行集群实例Demo1:Application集群Demo2:Session集群优劣5.高可用部署问题1:HighavailabilityshouldbeenabledwhenstartingstandbyJobManagers问题2:ThebasedirectoryoftheJobResultStoreisn'taccessible6.补充1.架构图参考:部署验证demo2.helm安装operator安装cert-manager依赖Jetstack/cert-ma

k8s搭建容器云平台

平台部署–部署容器云平台部署kubernets1.22.1集群curl-Ohttp://...../chinaskills_cloud_paas_v2.0.2.isomountchinaskills_cloud_paas_v2.0.2.iso/mntcp-rvf/mnt/*/optcp/opt/kubeeasy/usr/binkubeeasy--help#[installdependenciespackagecluster]kubeeasyinstalldependencies\--host10.18.4.10,10.18.4.11\--userroot\--password000000\--

【云原生技术】K8S报错 “0/1 nodes are available: 1 node(s) didn‘t match pod anti-affinity rules. preemption:

要解决“0/1nodesareavailable:1node(s)didn’tmatchpodanti-affinityrules.preemption:0/1nodesareavailable:1Nopreemptionvictimsfoundforincomingpod.”的问题,需要对Kubernetes集群进行一些检查和可能的调整。下面是操作步骤的详细指南:1.检查Pod反亲和性规则首先,检查造成问题的Pod的反亲和性设置。您需要找到该Pod的定义文件(YAML文件),然后查看affinity.podAntiAffinity部分。例如:affinity:podAntiAffinity:

避免业务中断,K8s节点故障排查攻略,速来围观!

Kubernetes是一个强大的容器编排系统,但在运行过程中,节点故障可能会发生。本教程将引导您深入了解和排查K8S节点故障的常见问题,以确保集群的可靠性和稳定性。步骤一:检查节点状态首先,通过以下命令检查节点的整体状态:kubectlgetnodes执行上述命令,输入结果如下图:确认所有节点都处于Ready状态。如果有节点处于NotReady状态,可以运行以下命令查看详细信息:kubectldescribenode例如,现在要查看node01节点详细信息,如下图:步骤二:查看事件使用以下命令查看集群中的事件,以了解任何异常情况:kubectlgetevents执行上述命令,输入结果如下图:步

Docker与K8S

简述Kubernetes的工作流程Kubernetes的工作流程可以分为以下几个步骤:        创建一个包含应用程序的Deployment的yml文件,然后通过kubectl客户端工具发送给ApiServer。        ApiServer接收到客户端的请求并将资源内容存储到数据库(etcd)中。        Controller组件(包含scheduler、replication、endpoint)监控资源变化并作出反应。        ReplicaSet检查数据库变化,创建期望数量的pod实例。        Scheduler再次检查数据库变化,发现尚未被分配到具体执行节点

K8s下的未授权及利用

它的未授权主要包括以下几种:APIServer,默认端口为8080,6443kubelet,默认端口为10250etcd,默认端口为2379Dashboard面板泄露一、APIServer8080⁄6443未授权访问K8s的APIServer默认服务端口为8080(insecure-port)和6443(secure-port),8080端口提供HTTP服务,没有认证授权机制,而6443端口提供HTTPS服务,支持认证(使用令牌或客户端证书进行认证)和授权服务。默认情况下8080端口不启动,而6443端口启动。这两个端口的开放取决于/etc/kubernetes/manifests/kube-

云原生之容器编排实践-ruoyi-cloud项目部署到K8S:MySQL8

背景前面搭建好了Kubernetes集群与私有镜像仓库,终于要进入服务编排的实践环节了。本系列拿ruoyi-cloud项目进行练手,按照MySQL,Nacos,Redis,Nginx,Gateway,Auth,System的顺序来部署ruoyi-cloud微服务应用。部署一个服务前,需要明确它是有状态服务还是无状态服务,这里MySQL,Nacos,Redis,Nginx当做有状态服务(StatefulSet)来部署;而Gateway,Auth,System这些微服务作为无状态服务(Deployment)来部署。这一次对全部服务采用YAML文件的方式来进行部署,这有助于理解K8S组织管理资源的风

K8s 核心组件介绍

目录前言一、控制平面组件1.1kube-apiserver1.2etcd1.3kube-scheduler1.4kube-controller-manager1.5cloud-controller-manager二、Node组件2.1kubelet2.2kube-proxy2.3ContainerRuntime前言一个完整的K8s集群由一组节点(node)服务器组成,这些服务器节点运行着K8s所管理的容器化应用,且每个集群至少有一个工作节点(worknode)。工作节点会托管所有的Pods,而Pod就是作为应用负载的组件。控制平面管理集群中的工作节点和Pods,为集群提供故障转移和高可用性。基

K8s调度之污点与容忍

前言前面介绍了节点亲和性调度,它可以使得我们的Pod调度到指定的Node节点上,而污点(Taints)与之相反,它可以让Node拒绝Pod的运行,甚至驱逐已经在该Node上运行的Pod污点是Node上设置的一个属性,通常设置污点表示该节点有问题,比如磁盘要满了,资源不足,或者该Node正在升级暂时不能提供使用等情况,这时不希望再有新的Pod进来,这个时候就可以给该节点设置一个污点。但是有的时候其实Node节点并没有故障,只是不想让一些Pod调度进来,比如这台节点磁盘空间比较大,希望是像Elasticsearch、Minio这样需要较大磁盘空间的Pod才调度进来,那么就可以给节点设置一个污点,给