文章目录1.背景说明2.你可以学到什么?3.前置条件4.安装docker服务(所有节点)5.部署k8s集群5.1系统配置(所有节点)5.2安装kubelet组件(所有节点)5.2.1编写kubelet源5.2.2安装kubelet5.2.3启动kubelet5.3集群初始化(master节点)5.4从节点加入到集群中5.5安装k8s网络插件5.6安装ingress网络5.7配置StorageClass6.helm安装gitlab6.1添加gitlab的helm源6.2创建证书密钥6.3创建集成smtp和ldap的密钥6.4拉取并修改gitlab的values文件6.5部署gilab6.6修改g
Docker集群配置与应用前言学习目标1.建立DockerSwarm集群1.1为什么要使用容器集群1.2什么是Swarm集群1.3DockerSwarm特性1.4Swarm节点1.5Swarm集群管理命令Swarm集群节点管理命令1.6DockerSwarm集群搭建前言可以认为DockerSwarm(Go语言开发)将一个Docker主机池变成了一个单独的虚拟机。学习目标了解DockerSwarm,掌握Swarm集群建立及节点管理;了解Swarm服务,学会在集群中部署和管理服务;了解Swarm网络,掌握overlay网络的创建和使用;了解Swarm高可用性和负载平衡,学会配置外部负载平衡器;熟悉
文章目录一、安装前的规划1、系统规划2、网络规划3、存储规划二、主机配置1、Linux主机安装(rac01&rac02)2、配置yum源并安装依赖包(rac01&rac02)3、网络配置(rac01&rac02)4、存储配置(rac01&rac02)rac01添加硬盘的方式:rac02添加硬盘的方式:开启共享文件修改虚拟机配置文件安装`multipath`绑定多路径:配置UDEV绑盘:5、hosts文件配置(rac01&rac02)6、防火墙配置(rac01&rac02)7、selinux配置(rac01&rac02)8、时间同步配置(rac01&rac02)9、关闭透明大页和NUMA(rac
背景:minio分布式集群是单独的服务,并没有被k8s管理,k8s与minio集群在不同的服务器上部署,k8s需要使用minio分布式集群作为k8s集群的配置文件及其他文件的存储介质。minio的bucket:k8s挂载到服务器目录:/home/k8s/miniorclone使用minio的S3服务配置目录:/home/minioS3/home/minioS3/rclone.conf/home/minioS3/start_rclone.sh1、安装fuse:sudoyuminstallfuse1.1查询是否有fusemount3sudofind/-namefusermount31.2确认FUS
文章目录一、Zookeeper概述1、Zookeeper定义2、Zookeeper工作机制3、Zookeeper特点4、Zookeeper数据结构5、Zookeeper应用场景二、部署Zookeeper集群1、部署Zookeeper集群的操作步骤2、实例操作:部署Zookeeper集群三、Kafka概述1、为什么需要消息队列(MQ)2、使用消息队列的好处3、消息队列的两种模式4、Kafka定义5、Kafka简介6、Kafka的特性7、Kafka系统架构四、部署zookeeper+kafka集群1、部署zookeeper+kafka集群2、实例操作:部署zookeeper+kafka集群五、部署
前言:这次是在部署后很久才想起来整理了下文档,如有遗漏见谅,期间也遇到过很多坑有些目前还没头绪希望有大佬让我学习下一、环境准备k8s-master013.127.10.209k8s-master023.127.10.95k8s-master033.127.10.66k8s-node013.127.10.233k8s-node023.127.33.173harbor3.127.33.1741、k8s各节点部署nfs挂载目录为/home/k8s/elasticsearch/storage2、安装制备器Provisioner镜像为quay.io/external_storage/nfs-client
Zookeeper+kafka集群部署需jdk环境安装包下载地址:Indexof/dist/zookeeper上传到/usr/localtar-zxfzookeeper-3.4.5-cdh5.5.4.tar.gzrm-rf zookeeper-3.4.5-cdh5.5.4.tar.gz进入到zookeeper的安装目录cdzookeeper-3.4.5-cdh5.5.4/新建data和logs文件夹[root@testzookeeper-3.4.5]#mkdirdata[root@testzookeeper-3.4.5]#mkdirlogs复制zoo_sample.cfg文件cd conf/c
K8S集群重新初始化0、当前环境1、master节点1.1、在master节点执行下面reset命令:1.2、手动清除配置信息,这一步很关键:1.3、重新引导集群1.4、创建配置目录,并复制权限配置文件到用户目录下:1.5查看集群状态1.6安装Calico网络插件2、work节点2.1、重置工作节点2.2、手动删除目录2.3、重新加入集群3、检验效果在引导k8s集群的过程时可能因为这个或那个的原因导致需要重新引导集群。下面整理了我在实际工作中初始化k8s集群的详细过程。0、当前环境k8s环境部署总览ip地址类型操作系统服务配置192.168.162.31Master01Centos7.62核C
创建三个集群 导包org.springframework.cloudspring-cloud-starter-eureka-server1.4.6.RELEASEorg.springframework.bootspring-boot-devtools配置文件yml 改一下端口号server:port:7003#Eureka配置eureka:instance:hostname:localhost#Eureka服务端的实例名称client:register-with-eureka:false#表示是否向eureka注册中心注册自己fetch-registry:false#fetch-registr
关闭Elasticsearch集群的安全性设置,特别是如果您正在使用X-Pack,涉及到修改Elasticsearch的配置。以下是一般步骤,但请注意,这可能会使您的Elasticsearch集群面临安全风险,因此建议仅在开发或测试环境中执行此操作。关闭X-Pack安全性编辑配置文件:打开Elasticsearch的配置文件elasticsearch.yml。这个文件通常位于Elasticsearch的安装目录下的config文件夹中。修改安全性设置:在elasticsearch.yml文件中,找到与X-Pack安全性相关的设置。您可能需要注释掉或删除以下行:xpack.security.en