草庐IT

Kubesphere

全部标签

KubeSphere 社区征稿说明

KubeSphere社区一直致力于云原生技术的布道工作。通过组织线下Meetup,线上的定期技术直播,KubeSphere社区输出了颇多精彩的技术分享内容。此外,社区还产出了多篇优质的技术文章,仅在2021年就多达上百篇。这些分享内容涵盖了容器、微服务、多云与多集群、服务网格、数据库、存储等多个领域,帮助近百家企业在开发测试与生产环境中落地K8s及云原生相关技术。这些优质文章,大部分来自于社区用户,包括最佳实践、项目部署安装教程、实际问题解决等多个方面。2022年,KubeSphere社区将会继续输出优质的内容,帮助社区用户更快地落地云原生技术。而这个过程,离不开各位社区用户的共同参与。因此,

KubeSphere 网关的设计与实现(解读)

作者:泓舟子,KubeSphere后端研发工程师,云原生爱好者,现专注于云原生微服务方向。KubeSphere中为什么需要网关?如果需要将K8s集群内的服务暴露到外部访问有那些方式呢?可以通过将Service设置成NodePort方式暴露出去或者通过Ingress方式。另外使用Ingress方式可以实现将请求分发到一个或多个Service,可以同一个IP地址下暴露多个服务等优势。但是对于Ingress方式而言,在K8s中只是内置了IngressCRD(可以创建Ingress资源),没有内置IngressController,必须部署了IngressController才能为Ingress资源提

KubeSphere 网关的设计与实现(解读)

作者:泓舟子,KubeSphere后端研发工程师,云原生爱好者,现专注于云原生微服务方向。KubeSphere中为什么需要网关?如果需要将K8s集群内的服务暴露到外部访问有那些方式呢?可以通过将Service设置成NodePort方式暴露出去或者通过Ingress方式。另外使用Ingress方式可以实现将请求分发到一个或多个Service,可以同一个IP地址下暴露多个服务等优势。但是对于Ingress方式而言,在K8s中只是内置了IngressCRD(可以创建Ingress资源),没有内置IngressController,必须部署了IngressController才能为Ingress资源提

KubeSphere 社区双周报 | 4.8 深圳站 Meetup 火热报名中 | 2023.3.17-3.30

KubeSphere社区双周报主要整理展示新增的贡献者名单和证书、新增的讲师证书以及两周内提交过commit的贡献者,并对近期重要的PR进行解析,同时还包含了线上/线下活动和布道推广等一系列社区动态。本次双周报涵盖时间为:2023.03.17-2023.03.30。贡献者名单新晋贡献者本两周共有7位新晋contributor。感谢各位对KubeSphere社区的贡献!近期重要更新KubeSphere1.修复集群网关数据重复的问题相关PR:https://github.com/kubesphere/kubesphere/pull/5582贡献者:hongzhouzi2.在执行相关命令时自动安装g

KubeSphere 社区双周报 | 4.8 深圳站 Meetup 火热报名中 | 2023.3.17-3.30

KubeSphere社区双周报主要整理展示新增的贡献者名单和证书、新增的讲师证书以及两周内提交过commit的贡献者,并对近期重要的PR进行解析,同时还包含了线上/线下活动和布道推广等一系列社区动态。本次双周报涵盖时间为:2023.03.17-2023.03.30。贡献者名单新晋贡献者本两周共有7位新晋contributor。感谢各位对KubeSphere社区的贡献!近期重要更新KubeSphere1.修复集群网关数据重复的问题相关PR:https://github.com/kubesphere/kubesphere/pull/5582贡献者:hongzhouzi2.在执行相关命令时自动安装g

使用 Go 从零开发并发布一个 Kubectl 插件

作者:KaliArch(薛磊),某CloudMSP服务商产品负责人,熟悉企业级高可用/高并发架构,包括混合云架构、异地灾,熟练企业DevOPS改造优化,熟悉Shell/Python/Go等开发语言,熟悉Kubernetes、Docker、云原生、微服务架构等。前言十年云计算浪潮下,DevOps、容器、微服务等技术飞速发展,云原生成为潮流。企业云化从“ONCloud”走向“INCloud”,成为“新云原生企业”,新生能力与既有能力立而不破、有机协同,实现资源高效、应用敏捷、业务智能、安全可信。整个云原生概念很大,细化到可能是我们在真实场景中遇到的一些小问题,本文就针对日常工作中遇到的自己的小需求

使用 Go 从零开发并发布一个 Kubectl 插件

作者:KaliArch(薛磊),某CloudMSP服务商产品负责人,熟悉企业级高可用/高并发架构,包括混合云架构、异地灾,熟练企业DevOPS改造优化,熟悉Shell/Python/Go等开发语言,熟悉Kubernetes、Docker、云原生、微服务架构等。前言十年云计算浪潮下,DevOps、容器、微服务等技术飞速发展,云原生成为潮流。企业云化从“ONCloud”走向“INCloud”,成为“新云原生企业”,新生能力与既有能力立而不破、有机协同,实现资源高效、应用敏捷、业务智能、安全可信。整个云原生概念很大,细化到可能是我们在真实场景中遇到的一些小问题,本文就针对日常工作中遇到的自己的小需求

k8s kubesphere 部署 harbor私服仓库

kubesphere部署harbor私服仓库应用商店搜索harbor点击安装基本信息应用设置初始化harbor密码应用设置设置nodePort访问模式应用设置取消设置tls应用设置设置访问地址点击安装访问测试应用商店搜索harbor点击安装基本信息应用设置初始化harbor密码harborAdminPassword:就是我们创建完成后初始化的登录密码应用设置设置nodePort访问模式应用设置取消设置tls应用设置设置访问地址点击安装等待创建访问测试

k8s kubesphere 部署 harbor私服仓库

kubesphere部署harbor私服仓库应用商店搜索harbor点击安装基本信息应用设置初始化harbor密码应用设置设置nodePort访问模式应用设置取消设置tls应用设置设置访问地址点击安装访问测试应用商店搜索harbor点击安装基本信息应用设置初始化harbor密码harborAdminPassword:就是我们创建完成后初始化的登录密码应用设置设置nodePort访问模式应用设置取消设置tls应用设置设置访问地址点击安装等待创建访问测试

在 KubeSphere 中部署高可用 Redis 集群

作者:余生大大,大数据开发工程师,云原生爱好者,KubeSphere社区用户。前言Redis是在开发过程中经常用到的缓存中间件,在生产环境中为了考虑稳定性和高可用一般为集群模式的部署。常规部署在虚拟机上的方式配置繁琐并且需要手动重启节点,而使用K8s进行Redis集群的部署有以下优点:安装便捷:使用镜像或者yaml配置文件即可一件安装自动调度:容器挂掉后会自动调度重启和资源分配缩扩容方便:在扩容、缩容方面的优点无需多说,一键伸缩稳定高效:K8s在整个集群上进行调度,只要整个集群不挂掉总会调度到合适节点重启容器服务安装Redis集群我这里新建了一个test-project的项目空间来做Redis