草庐IT

kubesphere-community

全部标签

KubeSphere DevOps 流水线入门指南

作者:赵海亮,浙江大学计算机专业四年级在读博士生,研究方向为云计算、边缘计算、分布式系统等。虽然KubeSphere能够将我们从yaml文件的编写中解放出来,但是项目上云仍然十分繁琐。此外,一旦项目源代码发生更替(如发布新功能或去除bug等),所有组件都需要重新经历“源码打包-->制作镜像-->启动容器”这个流程。这意味着,项目运维人员不得不从事大量重复性劳动。为了提高项目发布的效率,工业界引入了DevOps的概念。本文首先将介绍DevOps是什么,随后尝试利用KubeSphere集成的功能来实现DevOps。什么是DevOps目前绝大多数互联网公司将开发和系统管理划分成不同的部门。开发部门的

KubeSphere 多行日志采集方案深度探索

作者:大飞哥,视源电子运维工程师,KubeSphere用户委员会广州站站长采集落盘日志日志采集,通常使用EFK架构,即ElasticSearch,Filebeat,Kibana,这是在主机日志采集上非常成熟的方案,但在容器日志采集方面,整体方案就会复杂很多。我们现在面临的需求,就是要采集容器中的落盘日志。容器日志分为标准输出日志和落盘日志两种。应用将日志打印在容器标准输出STDOUT中,由容器运行时(Docker或Containerd)把标准输出日志写入容器日志文件中,最终由采集器导出。这种日志打印采集是业界推荐方案。但对于不打印标准输出而直接将日志落盘的情况,业界最常用见的方案是,使用Sid

KubeSphere 多行日志采集方案深度探索

作者:大飞哥,视源电子运维工程师,KubeSphere用户委员会广州站站长采集落盘日志日志采集,通常使用EFK架构,即ElasticSearch,Filebeat,Kibana,这是在主机日志采集上非常成熟的方案,但在容器日志采集方面,整体方案就会复杂很多。我们现在面临的需求,就是要采集容器中的落盘日志。容器日志分为标准输出日志和落盘日志两种。应用将日志打印在容器标准输出STDOUT中,由容器运行时(Docker或Containerd)把标准输出日志写入容器日志文件中,最终由采集器导出。这种日志打印采集是业界推荐方案。但对于不打印标准输出而直接将日志落盘的情况,业界最常用见的方案是,使用Sid

篇一:部署Kubesphere

篇一:部署Kubesphere关注博主B站,录有实操ID:老白嫖大怪兽更多运维分享  该公司决定采用Kubernetes+GitLab+Harbor+KubeSphere(集成了Jenkins、Istio等工具)架构来构建CICD环境,以缩短新功能开发上线周期,及时满足客户的需求,实现DevOps的部分流程,来减轻部署运维的负担,实现可视化容器生命周期管理、应用发布和版本迭代更新,请完成CICD环境部署。CICD应用系统架构如下:1.准备KubeSphere环境官方离线部署地址:https://kubesphere.io/zh/docs/installing-on-kubernetes/on-

篇一:部署Kubesphere

篇一:部署Kubesphere关注博主B站,录有实操ID:老白嫖大怪兽更多运维分享  该公司决定采用Kubernetes+GitLab+Harbor+KubeSphere(集成了Jenkins、Istio等工具)架构来构建CICD环境,以缩短新功能开发上线周期,及时满足客户的需求,实现DevOps的部分流程,来减轻部署运维的负担,实现可视化容器生命周期管理、应用发布和版本迭代更新,请完成CICD环境部署。CICD应用系统架构如下:1.准备KubeSphere环境官方离线部署地址:https://kubesphere.io/zh/docs/installing-on-kubernetes/on-

KubeSphere v3.3.1 权限控制详解

作者:周文浩,青云科技研发工程师,KubeSphereMaintainer。热爱云原生,热爱开源,目前负责KubeSphere权限控制的开发与维护。KubeSphere3.3.1已经发布一个多月了。3.3.1版本对于KubeSphere来说只是一个小的Patch版本,但是权限控制模块改动较大。这篇文章将从开发者的视角为你分享权限控制模块的改动内容。这次的改动的主要目的是提升KubeSphere权限控制的安全性和易用性。使用过KubeSphere的小伙伴应该对KubeSphere的租户体系有一些印象,这对于用户来说是非常重要的一部分。权限控制及租户解析在介绍这次的改动前,我将先简单为你介绍Kub

KubeSphere v3.3.1 权限控制详解

作者:周文浩,青云科技研发工程师,KubeSphereMaintainer。热爱云原生,热爱开源,目前负责KubeSphere权限控制的开发与维护。KubeSphere3.3.1已经发布一个多月了。3.3.1版本对于KubeSphere来说只是一个小的Patch版本,但是权限控制模块改动较大。这篇文章将从开发者的视角为你分享权限控制模块的改动内容。这次的改动的主要目的是提升KubeSphere权限控制的安全性和易用性。使用过KubeSphere的小伙伴应该对KubeSphere的租户体系有一些印象,这对于用户来说是非常重要的一部分。权限控制及租户解析在介绍这次的改动前,我将先简单为你介绍Kub

KubeSphere 社区征稿说明

KubeSphere社区一直致力于云原生技术的布道工作。通过组织线下Meetup,线上的定期技术直播,KubeSphere社区输出了颇多精彩的技术分享内容。此外,社区还产出了多篇优质的技术文章,仅在2021年就多达上百篇。这些分享内容涵盖了容器、微服务、多云与多集群、服务网格、数据库、存储等多个领域,帮助近百家企业在开发测试与生产环境中落地K8s及云原生相关技术。这些优质文章,大部分来自于社区用户,包括最佳实践、项目部署安装教程、实际问题解决等多个方面。2022年,KubeSphere社区将会继续输出优质的内容,帮助社区用户更快地落地云原生技术。而这个过程,离不开各位社区用户的共同参与。因此,

KubeSphere 社区征稿说明

KubeSphere社区一直致力于云原生技术的布道工作。通过组织线下Meetup,线上的定期技术直播,KubeSphere社区输出了颇多精彩的技术分享内容。此外,社区还产出了多篇优质的技术文章,仅在2021年就多达上百篇。这些分享内容涵盖了容器、微服务、多云与多集群、服务网格、数据库、存储等多个领域,帮助近百家企业在开发测试与生产环境中落地K8s及云原生相关技术。这些优质文章,大部分来自于社区用户,包括最佳实践、项目部署安装教程、实际问题解决等多个方面。2022年,KubeSphere社区将会继续输出优质的内容,帮助社区用户更快地落地云原生技术。而这个过程,离不开各位社区用户的共同参与。因此,

KubeSphere 网关的设计与实现(解读)

作者:泓舟子,KubeSphere后端研发工程师,云原生爱好者,现专注于云原生微服务方向。KubeSphere中为什么需要网关?如果需要将K8s集群内的服务暴露到外部访问有那些方式呢?可以通过将Service设置成NodePort方式暴露出去或者通过Ingress方式。另外使用Ingress方式可以实现将请求分发到一个或多个Service,可以同一个IP地址下暴露多个服务等优势。但是对于Ingress方式而言,在K8s中只是内置了IngressCRD(可以创建Ingress资源),没有内置IngressController,必须部署了IngressController才能为Ingress资源提