草庐IT

基于ubuntu2204使用kubeadm部署k8s集群

部署k8s集群基础环境配置安装container安装runc安装CNI插件部署1.24版本k8s集群(flannel)安装crictl使用kubeadm部署集群节点加入集群部署flannel网络配置dashboard本集群基于ubuntu2204系统使用kubeadm工具部署1.24版本k8s,容器运行时使用containerd(官方推荐),网络插件会选择使用flannel(适用小型集群)calico(适用大型复杂集群)主机名IP机器资源master192.168.200.1706G_6C_150Gworker01192.168.200.1716G_6C_150Gworker02192.168

18-k8s控制器资源-cronjob控制器

    job控制器是执行完一次任务,就结束;    cronjob控制器,是基于job控制器,定期频率性执行任务;等同于linux系统中的crontab一样;1,编辑cronjob资源清单[root@k8s231pi]#vimcronjob.yamlapiVersion:batch/v1kind:CronJobmetadata: name:xinjizhiwaspec: schedule:"*****" #定义job的模板 jobTemplate:  spec:   template:    spec:     containers:     -name:c1      image:alpi

【梳理】k8s使用Operator搭建Flink集群(高可用可选)

文章目录1.架构图2.helm安装operator3.集群知识k8s上的两种模式:Native和Standalone两种CR4.运行集群实例Demo1:Application集群Demo2:Session集群优劣5.高可用部署问题1:HighavailabilityshouldbeenabledwhenstartingstandbyJobManagers问题2:ThebasedirectoryoftheJobResultStoreisn'taccessible6.补充1.架构图参考:部署验证demo2.helm安装operator安装cert-manager依赖Jetstack/cert-ma

k8s搭建容器云平台

平台部署–部署容器云平台部署kubernets1.22.1集群curl-Ohttp://...../chinaskills_cloud_paas_v2.0.2.isomountchinaskills_cloud_paas_v2.0.2.iso/mntcp-rvf/mnt/*/optcp/opt/kubeeasy/usr/binkubeeasy--help#[installdependenciespackagecluster]kubeeasyinstalldependencies\--host10.18.4.10,10.18.4.11\--userroot\--password000000\--

【云原生技术】K8S报错 “0/1 nodes are available: 1 node(s) didn‘t match pod anti-affinity rules. preemption:

要解决“0/1nodesareavailable:1node(s)didn’tmatchpodanti-affinityrules.preemption:0/1nodesareavailable:1Nopreemptionvictimsfoundforincomingpod.”的问题,需要对Kubernetes集群进行一些检查和可能的调整。下面是操作步骤的详细指南:1.检查Pod反亲和性规则首先,检查造成问题的Pod的反亲和性设置。您需要找到该Pod的定义文件(YAML文件),然后查看affinity.podAntiAffinity部分。例如:affinity:podAntiAffinity:

避免业务中断,K8s节点故障排查攻略,速来围观!

Kubernetes是一个强大的容器编排系统,但在运行过程中,节点故障可能会发生。本教程将引导您深入了解和排查K8S节点故障的常见问题,以确保集群的可靠性和稳定性。步骤一:检查节点状态首先,通过以下命令检查节点的整体状态:kubectlgetnodes执行上述命令,输入结果如下图:确认所有节点都处于Ready状态。如果有节点处于NotReady状态,可以运行以下命令查看详细信息:kubectldescribenode例如,现在要查看node01节点详细信息,如下图:步骤二:查看事件使用以下命令查看集群中的事件,以了解任何异常情况:kubectlgetevents执行上述命令,输入结果如下图:步

Kubernetes 外部 HTTP 请求到达 Pod 容器的全过程

文章目录1、问题一2、HTTP请求流转过程概述图3、详细过程分析4、容器技术底座5、问题二6、详细过程分析(补充)1、问题一当外部发送一个HTTP/HTTPS请求到Kubernetes集群时,它是如何达到Pod中的container的呢?2、HTTP请求流转过程概述图3、详细过程分析如第二节图所示,全过程大致为:用户从web/mobile/pc等客户端发出HTTP/HTTPS请求。由于应用服务通常是通过域名的形式对外暴露,所以请求将会先进行DNS域名解析,得到对应的公网IP地址。公网IP地址通常会绑定一个LoadBalancer负载均衡器,此时请求会进入此负载均衡器。•LoadBalancer

Docker与K8S

简述Kubernetes的工作流程Kubernetes的工作流程可以分为以下几个步骤:        创建一个包含应用程序的Deployment的yml文件,然后通过kubectl客户端工具发送给ApiServer。        ApiServer接收到客户端的请求并将资源内容存储到数据库(etcd)中。        Controller组件(包含scheduler、replication、endpoint)监控资源变化并作出反应。        ReplicaSet检查数据库变化,创建期望数量的pod实例。        Scheduler再次检查数据库变化,发现尚未被分配到具体执行节点

K8s下的未授权及利用

它的未授权主要包括以下几种:APIServer,默认端口为8080,6443kubelet,默认端口为10250etcd,默认端口为2379Dashboard面板泄露一、APIServer8080⁄6443未授权访问K8s的APIServer默认服务端口为8080(insecure-port)和6443(secure-port),8080端口提供HTTP服务,没有认证授权机制,而6443端口提供HTTPS服务,支持认证(使用令牌或客户端证书进行认证)和授权服务。默认情况下8080端口不启动,而6443端口启动。这两个端口的开放取决于/etc/kubernetes/manifests/kube-

云原生之容器编排实践-ruoyi-cloud项目部署到K8S:MySQL8

背景前面搭建好了Kubernetes集群与私有镜像仓库,终于要进入服务编排的实践环节了。本系列拿ruoyi-cloud项目进行练手,按照MySQL,Nacos,Redis,Nginx,Gateway,Auth,System的顺序来部署ruoyi-cloud微服务应用。部署一个服务前,需要明确它是有状态服务还是无状态服务,这里MySQL,Nacos,Redis,Nginx当做有状态服务(StatefulSet)来部署;而Gateway,Auth,System这些微服务作为无状态服务(Deployment)来部署。这一次对全部服务采用YAML文件的方式来进行部署,这有助于理解K8S组织管理资源的风