草庐IT

Kubernetes系列-通过kubectl实现重启pod的方法

kubectl没有restartpod这个命令,主要是由于在k8s中pod的管理属于rs等控制器,并不需要手动维护,但有时更新了yaml文件后,期望破都能够"重启"重新加载yaml文件,比如修改了configmap的配置文件后,希望重启pod加载配置,此时就需要“重启”Pod。而"重启"准确地来说是重建pod,但给用户的感觉是重启。方法一:kubectlrolloutrestartkubectlrolloutrestartdeployment-n上述命令会重建这个deployment下的pod,和滚动升级类似,不会一次性杀死Pod,比较平滑。方法二:kubectlscale此方法存在风险,不建

firebase - Flutter Firebase 项目在 'pod update' 后无法编译

在我的flutter项目中运行podupdate后,我的项目无法为iO编译。那是我已经尝试过的。删除Pod文件夹。删除Pod文件运行Podinit来创建一个新的Podfile将代码粘贴到新的Podfile并再次运行Podistall。$flutter医生-v[✓]Flutter(Channeldev,v1.2.1,onMacOSX10.14.318D109,localede-DE)•Flutterversion1.2.1at/Users/mainuser/Development/flutter•Frameworkrevision8661d8aecd(3daysago),2019-02-

firebase - Flutter Firebase 项目在 'pod update' 后无法编译

在我的flutter项目中运行podupdate后,我的项目无法为iO编译。那是我已经尝试过的。删除Pod文件夹。删除Pod文件运行Podinit来创建一个新的Podfile将代码粘贴到新的Podfile并再次运行Podistall。$flutter医生-v[✓]Flutter(Channeldev,v1.2.1,onMacOSX10.14.318D109,localede-DE)•Flutterversion1.2.1at/Users/mainuser/Development/flutter•Frameworkrevision8661d8aecd(3daysago),2019-02-

k8s中的pod不停的重启,定位问题原因与解决方法

现象:running的pod,短时间内重启次数太多 定位问题方法:查看pod日志kubectlgetevent#查看当前环境一个小时内的日志kubectldescribepodpod_name#查看当前pod的日志kubectllogs-fpod_name--previous#查看重启之前的那一次pod的日志,从那一刻开始计算###############一般用以上的三个命令就行本次使用以下命令,解决了问题kubectldescribepodpod_name问题原因:OOM,pod被kill掉,重启了(内存不够用) 查看该服务的deployment.yaml文件发现我们deployment.y

k8s查看所有在运行pod内的镜像版本

本地跑的算法镜像有时候与线上跑的环境不一致,这时候又需要同步,每一个都去查找又很麻烦这时候查看两边的镜像,选取其中不同的地方edit一下,就方便多了名称空间更改为自己的名称空间kubectl-nxxxgetpods|grepRunning|awk'{print$1}'|xargs-r-I'{}'kubectl-nxxxgetpods{}-o=jsonpath='{.status.containerStatuses[0].image}{"\n"}'|sort查询镜像并去重,有名称空间的 记得把名称空间加上kubectl-nnamespacegetpods-ojsonpath='{.items[*

【探索 Kubernetes|作业管理篇 系列 7】探究 Pod 有什么用,为什么需要它

前言大家好,我是秋意零。前一篇,我们介绍了如何从0到1搭建Kubernetes集群。现在我们可以正式了解,Kubernetes核心特征了。今天我们来探究Pod,为什么需要Pod?👿简介🏠个人主页:秋意零🧑个人介绍:在校期间参与众多云计算相关比赛,如:🌟“省赛”、“国赛”,并斩获多项奖项荣誉证书🎉目前状况:24届毕业生,拿到一家私有云(IAAS)公司offer,暑假开始实习🔥账号:各个平台,秋意零账号创作者、云社区创建者💕欢迎大家:欢迎大家一起学习云计算,走向年薪30万文章目录前言专栏系列文章目录一、最小管理单元介绍二、为什么Kubernetes需要Pod?来感受一下这么做的原因三、容器设计模式

k8s通过命令批量删除pod

k8s批量删除失败的pod查看所有的podkubectlgetpod--all-namespaces选择STATUS列,查看某namespace的非Running的记录,比如:kubectlgetpods-nkube-system|grepEvicted|awk'{print$1}'|xargskubectldelete-nkube-systempods解析:获取所有的pods及其状态kubectlgetpods筛选出命名空间kube-system的记录,默认视default-nkube-systemgrep选出带有Evicted字段pod|grepEvicted通过awk,获取第一列信息,也

K8S-kubectl scale(静态)扩缩容pod,K8S-kubectl autoscale(动态)扩缩容pod,K8S的HorizontalPodAutoscaler(HPA)机制自动扩容缩容

K8S-kubectlscale(静态)扩缩容pod,K8S-kubectlautoscale(动态)扩缩容pod,K8S的HorizontalPodAutoscaler(HPA)机制自动扩容缩容1、静态调整pod方式1.1通过kubectlscale命令扩缩pod1.2使用yml文件扩缩容pod2、HPA自动扩容2.1通过kubectlautoscale命令自动扩缩容pod(不推荐)2.2通过yml文件自动扩缩容pod(推荐配置)搭建K8S文档:yum安装K8Sansible搭建K8S集群:ansible搭建K8S准备至少3个机器搭建好K8S集群节点名称IPk8s-master192.168

redis - Kubernetes - 无法从同一集群上的另一个 pod 连接到 redis pod

同一集群上的pod之间的连接失败。据我了解,默认情况下,pods暴露在yaml文件中指定的端口上。例如,我为redis配置了我的部署文件,如下所示:apiVersion:extensions/v1beta1kind:Deploymentmetadata:name:redislabels:app:myappspec:replicas:1template:metadata:labels:app:myappspec:containers:-env:-name:REDIS_PASSvalue:'**None**'image:tutum/redisports:-containerPort:637

redis - Kubernetes - 无法从同一集群上的另一个 pod 连接到 redis pod

同一集群上的pod之间的连接失败。据我了解,默认情况下,pods暴露在yaml文件中指定的端口上。例如,我为redis配置了我的部署文件,如下所示:apiVersion:extensions/v1beta1kind:Deploymentmetadata:name:redislabels:app:myappspec:replicas:1template:metadata:labels:app:myappspec:containers:-env:-name:REDIS_PASSvalue:'**None**'image:tutum/redisports:-containerPort:637