草庐IT

Hadoop-Shell

全部标签

Hadoop3.3伪分布式安装部署

目录引言实验目的及准备实验步骤引言Hadoop生态的搭建有本地模式、伪分布模式、集群模式(3台机器)三种安装模式,本篇文章将详细介绍Hadoop3.3的伪分布安装模式。实验目的及准备一、完成Hadoop3.3伪分布安装二、在Linux中配置jdk1.8环境变量三、配置主机的免密钥登录准备:MobaXterm、Centos7系统、jdk-8u112-linux-x64.tar.gz、Hadoop3.3实验步骤一、启动虚拟机master节点,连接至mobaXterm的远程终端:二、上传Hadoop3.3.2以及jdk安装包至主节点的/home路径下(该安装包在CSDN中都可以搜寻到,作者无法重复上

【shell-10】shell实现的各种kafka脚本

kafka-shell工具背景日志log一.启动kafka->(start-kafka)二.停止kafka->(stop-kafka)三.创建topic->(create-topic)四.删除topic->(delete-topic)五.获取topic列表->(list-topic)六.将文件数据录入到kafka->(file-to-kafka)七.将kafka数据下载到文件->(kafka-to-file)八.查看topic的groupID消费情况->(list-group)背景注意:我用的kafka版本是3.2.1其他版本kafka提供的命令行可能有细微区别。因为经常要用kafka环境参与

来吧,Jenkins+git+mvn+shell一键部署实践起来

环境:centosJenkins-2.319系统自带gitmvn3.8.7jdk1.8一、安装jdk1、https://blog.csdn.net/codedz/article/details/124044974centos自带了openjdk,我是选择自己重新搞一个,用的上面链接地址的yum安装方式2、安装完成查看版本查看java安装路径whichjava配置环境变量编辑profile:vim/etc/profileprofile文件中添加:exportJAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.352.b08-2.el7_9.x86_64

大数据 - Spark系列《一》- 从Hadoop到Spark:大数据计算引擎的演进

目录1.1🐶Hadoop回顾1.2🐶spark简介1.3🐶Spark特性1.🥙通用性2.🥙简洁灵活3.🥙多语言1.4🐶SparkCore编程体验1.4.1spark开发工程搭建1.🥙开发语言选择:2.🥙依赖管理工具:1.4.2Spark编程流程1.🥙获取sparkcontext对象2.🥙加载数据3.🥙处理转换数据4.🥙输出结果,释放资源1.4.3简单代码实现-wordCount        在大数据领域,Hadoop一直是一个重要的框架,它为处理海量数据提供了可靠的解决方案。然而,随着大数据技术的发展和需求的不断演变,人们开始寻找更高效、更灵活的解决方案。这就引出了Spark,一个强大的分布

c++ - Eye of Gnome - 使用 shell 脚本在不同窗口打开两个图像

这听起来像是一个愚蠢的问题,因为我尝试了一段时间来解决这个问题,但我不知道如何解决它。我有两个名为imagem.bmp和imagem2.bmp的图像以及一个应该使用gnome之眼打开这两个图像的shell脚本。我在脚本中写了这个:#!/usr/basheogimagem.bmpeogimagem2.bmp问题是只打开了一张图片,即eog打开第一张图片,然后在同一屏幕中加载第二张图片。我只需要在两个单独的屏幕中打开它,以便我可以比较图像。 最佳答案 帮助文本总是有用的:$eog--helpUsage:eog[OPTION...][FI

并行计算与大规模数据处理:Hadoop与Spark

1.背景介绍大数据是指由于互联网、物联网等新兴技术的发展,数据量巨大、高速增长、多源性、不断变化的数据。大数据处理技术是指利用计算机科学技术,对大规模、高速、多源、不断变化的数据进行存储、处理和挖掘,以实现数据的价值化。并行计算是指同时处理多个任务或数据,以提高计算效率。大规模数据处理是指处理的数据量非常大,需要借助分布式系统来完成。Hadoop和Spark是两种常用的大规模数据处理技术,Hadoop是一个开源的分布式文件系统(HDFS)和分布式计算框架(MapReduce)的集合,而Spark是一个基于内存计算的大数据处理框架,它可以在HDFS、本地文件系统和其他分布式存储系统上运行。本文将

【Linux】安装hadoop详细步骤

.一.安装JDK1.查看安装后的镜像中是否存在Java1.1.卸载OpenJDK2.安装jdk2.1上传jdk,这里选用的是jdk-8u291版本的,一般jdk版本在1.8以上即可2.2解压文件2.3配置JDK环境变量2.4检验Java是否配置成功二.安装hadoop1.解压Hadoop安装包,并设置环境2.修改配置文件2.1修改hadoop-env.sh文件2.2修改core-site.xml文件2.3修改hdfs-site.xml文件3.初始化文件系统3.1.初始化名称节点3.2.文件系统初始化成功,启动hdfs3.3启动之后,通过jps指令查询所有的java进程3.4访问页面一.安装JD

使用Hadoop 的 Java API 操纵 HDFS 文件系统

0x00:说明使用Java操作HDFS文件系统可以使用其对应的JavaAPI,即对应三个jar依赖包:hadoop-common.jar(该文件在hadoop-2.10.1.tar.gz压缩包中的\share\hadoop\common目录下)hadoop-hdfs.jar(该文件在hadoop-2.10.1.tar.gz压缩包中的\share\hadoop\hdfs目录下)hadoop-client.jar(该文件在hadoop-2.10.1.tar.gz压缩包中的\share\hadoop\hdfs目录下)这三个jar包的具体名字可能根据你所安装的版本进行变化,在本文档中这三个文件名称具体

shell脚本-免交互

一、HereDocument免交互:1.交互概述:交互:当计算机播放某多媒体程序的时候,编程人员可以发出指令控制该程序的运行,而不是程序单方面执行下去,程序在接受到编程人员相应的指令后而相应地做出反应。对于Linux操作系统中,有许多操作都会触及到交互(根据系统的指示做出相对应的操作满足操作者的需求),对于shell脚本的自动化运维,就要实现免交互来达到自动化运维的效果。常用的交互程序:read,ftp,passwd,su,sudo,fdisk等等  cat也可配合免交互的方式重定向输出到文件。2.HereDoucument的作用和格式:HereDocument的作用:使用I/O重定向的方式将

【Docker】部署和运行青龙面板:一个支持python3、javaScript、shell、typescript 的定时任务管理面板

引言青龙面板是一个支持python3、javaScript、shell、typescript的定时任务管理面板。步骤拉取镜像从DockerHub上拉取最新的“qinglong”镜像。dockerpullwhyour/qinglong:latest启动容器使用刚刚拉取的镜像来启动一个新的Docker容器。dockerrun-dit\-v$PWD/ql/config:/ql/config\-v$PWD/ql/log:/ql/log\-v$PWD/ql/db:/ql/db\-v$PWD/ql/repo:/ql/repo\-v$PWD/ql/raw:/ql/raw\-v$PWD/ql/scripts: