草庐IT

HA集群

全部标签

[Kubernetes]2. k8s集群中部署基于nodejs golang的项目以及Pod、Deployment详解

一. 创建k8s部署的镜像1.部署nodejs项目(1).上传nodejs项目到节点node1(2).压缩nodejs项目 (3).构建nodejsDockerfile1).创建nodejsDockerfile具体可参考:[Docker]十.DockerSwarm讲解,在/root下创建nodejsDockerfile,具体代码如下:FROMnode#把压缩文件COPY到镜像的root下ADD/wwwroot/nodejs.tar.gz/rootWORKDIR/rootRUNchmod-R777nodejsWORKDIR/root/nodejsEXPOSE3000#安装依赖RUNnpminst

1.1完全分布式Hadoop署集群

完全分布式Hadoop署集群大家好,我是行不更名,坐不改姓的宋晓刚,下面将带领大家从基础到小白Hadoop学习,跟上我的步伐进入Hadoop的世界。微信:15319589104QQ:2981345658文章介绍:在大数据时代,Hadoop已成为处理海量数据的必备工具。但如何从零开始搭建一个完整的Hadoop分布式集群呢?本文将为你详细介绍这一过程,帮助你轻松搭建自己的Hadoop集群,从硬件准备到集群配置,再到优化与维护,每一步都为你详细解读。1.1部署Hadoop集群在前面单机模式下克隆出来三台虚拟机分别是HadoopMaster,HadoopSlave,HadoopSlave11.0修改主

Zookeeper集群搭建记录 | 云计算[CentOS7] | Zookeeper集群搭建

本文目录写在前面step1Zookeeper安装包的下载step2关闭防火墙step3解压配置Zookeeper1解压并创建修改/conf/zoo.cfg文件2创建并修改/data/myidstep4配置文件传送到其他节点step5设置环境变量step6启动zookeeperstep7启动成功及状态查看step8验证zookeeper安装step9zookeeper功能测试写在前面本系列文章索引以及一些默认好的条件在传送门在配置Zookeeper之前,建议先配置Hadoop集群,具体的操作流程博主已更新完成,链接step1Zookeeper安装包的下载Zookeeper的安装包版本不太相同,大

k8s集群配置NodeLocal DNSCache

一、简介当集群规模较大时,运行的服务非常多,服务之间的频繁进行大量域名解析,CoreDNS将会承受更大的压力,可能会导致如下影响:延迟增加:有限的coredns服务在解析大量的域名时,会导致解析结果返回慢。业务访问异常:集群内的服务基本都是通过域名进行访问,coredns在解析压力大时会存在慢或者丢包的情况,导致服务之间解析异常。二、原理架构NodeLocalDNSCache通过在集群节点上作为DaemonSet运行DNS缓存代理来提高集群DNS性能。在当今的体系结构中,运行在‘ClusterFirst’DNS模式下的Pod可以连接到kube-dnsserviceIP进行DNS查询。通过kub

Kubernetes实战(十四)-k8s高可用集群扩容master节点

1 单master集群和多master节点集群方案1.1 单Master集群k8s集群是由一组运行k8s的节点组成的,节点可以是物理机、虚拟机或者云服务器。k8s集群中的节点分为两种角色:master和node。master节点:master节点负责控制和管理整个集群,它运行着一些关键的组件,如kube-apiserver、kube-scheduler、kube-controller-manager等。master节点可以有一个或多个,如果有多个master节点,那么它们之间需要通过etcd这个分布式键值存储来保持数据的一致性。node节点:node节点是承载用户应用的工作节点,它运行着一些必

【大数据(一)】hadoop2.4.1集群搭建(重点)

​1.准备Linux环境1.0先将虚拟机的网络模式选为NAT1.1修改主机名vi/etc/sysconfig/networkNETWORKING=yesHOSTNAME=server1.itcast.cn1.2修改ip地址vi/etc/sysconfig/network-scripts/ifcfg-eth0重新启动网络:servicenetworkrestart1.3修改ip地址和主机名的映射关系vi/etc/hosts127.0.0.1  localhostlocalhost.localdomainlocalhost4localhost4.localdomain4::1        loc

通过Docker搭建4节点的Tendermint集群

Tendermint:0.34.24Docker:20.10.21Docker-Compose:2.20.2OS:Ubuntu20.04Go:1.19.2Linux/amd641修改Tendermint源码1.1修改监听IP为什么要将127.0.1修改成0.0.0.0呢?因为容器内的服务如果是以127.0.0.1暴露的话,外部是无法通过端口映射访问docker容器内对应服务的。127.0.0.1是一个特殊的IP地址,称为本地回环地址,只能用于在同一台计算机上的进程之间进行通信。当您将服务绑定到127.0.0.1地址时,它将只能在本机进行访问,无法通过外部网络访问该应用程序。1.2不产生空区块1

Python语言连接访问Kerberos认证下的HA HDFS

「目的描述」此篇文章目的是使用Python语言对启用Kerberos、HighAvailability的HDFS文件系统进行访问,主要介绍KerberosClient、pyarrow、hdfs3三种方式。「环境说明」Python运行环境为3.7.0集群环境为CDH6.2.1(已启用Kerberos认证)Namenode实例所在机器分别为cm111、cm112废话不多说,直接上代码1、HdfsCli方式代码示例fromhdfs.ext.kerberosimportKerberosClientfromkrbcontextimportkrbcontextkeytab_file="/root/hdfs

K8S集群调度

scheduler:负责调度资源,把pod调度到指定的node节点预算策略:优选策略:1、List-watchK8S集群当中,通过list-watch的机制进行每个组件的协作,保持数据同步。每个组件之间的解耦。kubectl:配置文件,向APIserver发送命令----apiserver把命令发送到各个组件kubectlrunnginx--image=nginx:1.22-----apiserver-----controllermanager-----scheduler-----kubelet.创建成功之后,kubectlgetpodkubectldescribepodnginx------

Mac M1 Parallels CentOS7.9 Deploy Docker + Rancher + K8S(HA+More Master)

一、准备虚拟机资源虚拟机清单机器名称IP地址角色rancher10.211.55.200管理K8S集群k8svip10.211.55.199K8SVIPmaster0110.211.55.201K8S集群主节点master0210.211.55.202K8S集群主节点master0310.211.55.203K8S集群主节点node0110.211.55.211K8S集群从节点node0210.211.55.212K8S集群从节点本篇完成的7台虚拟机(3台master、2台node、1台k8svip、1台rancher),可下载导入使用链接:https://pan.baidu.com/s/1h