草庐IT

HDFS_NAMENODE

全部标签

一百一十七、Hadoop——GZIP压缩并解压HDFS中的文件

一、解压HDFS中的gzip压缩文件首先,先把HDFS中的gzip压缩文件下载到本地[root@hurys22~]#hdfsdfs-get /rtp/statistics/statistics2023-05-17.csv.gz  /opt/hdfs_rtp/然后,在/opt/hdfs_rtp/目录下查看文件[root@hurys22~]#cd/opt/hdfs_rtp/[root@hurys22hdfs_rtp]#lsevaluation2023-05-09.csv evaluation2023-05-10.csv evaluation2023-05-11.csv statistics2023

HDFS读写流程详细过程

HDFS读写流程详细过程HDFS的定义一、组成架构二、优缺点三、读流程四、NameNode和SeconderyNameNode五、写流程HDFS的定义HDFS(HadoopDistributedFileSystem),它是一个文件系统,用于存储文件,通过目录树来定位文件;其次,它是分布式的,由很多服务器联合起来实现其功能,集群中的服务器有各自的角色。适合一次写入,多次读出的场景。一个文件经过创建、写入和关闭之后就不需要改变。一、组成架构NameNode(NN):集群的Master,它是一个主管,管理者(1)管理HDFS的命名空间(2)配置副本策略(3)管理数据块(Block)映射信息(4)处理

一百七十二、Flume——Flume采集Kafka数据写入HDFS中(亲测有效、附截图)

一、目的作为日志采集工具Flume,它在项目中最常见的就是采集Kafka中的数据然后写入HDFS或者HBase中,这里就是用flume采集Kafka的数据导入HDFS中二、各工具版本(一)Kafkakafka_2.13-3.0.0.tgz(二)Hadoop(HDFS)hadoop-3.1.3.tar.gz(三)Flumeapache-flume-1.9.0-bin.tar.gz三、实施步骤(一)到flume的conf的目录下#cd /home/hurys/dc_env/flume190/conf(二)创建配置文件evaluation.properties#vi evaluation.prope

HDFS 常见基础操作命令

文章目录1.HDFS文件系统基本信息2.HDFS基础命令2.1HDFS上创建文件夹2.2查看HDFS指定目录下的内容2.3本地上传文件到HDFS指定目录下2.4查看HDFS文件内容2.5下载HDFS文件2.6复制HDFS文件2.7追加数据到HDFS文件中2.8HDFS数据移动2.9HDFS删除数据3.HDFS更多命令1.HDFS文件系统基本信息HDFS和Linux系统一样,均是以/作为跟目录的组织形式如何区分HDFS和Linux上的路径?可以采用如下方式区分#在linux路径前面加file:///Linux:file:///file:///usr/local/hello.txt#在hdfs路径

修炼k8s+flink+hdfs+dlink(三:安装dlink)

一:mysql初始化。mysql-uroot-p123456createdatabasedinky;grantallprivilegesondinky.*to'dinky'@'%'identifiedby'dinky'withgrantoption;flushprivileges;二:上传dinky。上传至目录/opt/app/dlinktar-zxvfdlink-release-0.7.4.tar.gzmvdlink-release-0.7.4dinkycddinky#首先登录mysqlmysql-udinky-pdinkymysql>usedinky;mysql>source/opt/ap

Hadoop HDFS(分布式文件系统)

一、HadoopHDFS(分布式文件系统)为什么要分布式存储数据假设一个文件有100tb,我们就把文件划分为多个部分,放入到多个服务器靠数量取胜,多台服务器组合,才能Hold住数据量太大,单机存储能力有上限,需要靠数量来解决问题数量的提升带来的是网络传输,磁盘读写,CUP,内存等各方面的综合提升。分布式组合在一起可以达到1+1>2的效果二、大数据体系中,分布式的调度主要有2类架构模式:1.去(无)中心化模式去中心化模式,没有明确的中心,众多服务器之间基于特定规则进行同步协调2.中心化模式中心化模式主从模式,大数据框架,大多数的基础架构上,都是符合:中心化模式的即:有一个中心节点(服务器)来统筹

大数据学习:使用Java API操作HDFS

文章目录一、创建Maven项目二、添加依赖三、创建日志属性文件四、在HDFS上创建文件五、写入HDFS文件1、将数据直接写入HDFS文件2、将本地文件写入HDFS文件六、读取HDFS文件1、读取HDFS文件直接在控制台显示2、读取HDFS文件,保存为本地文件一、创建Maven项目二、添加依赖在pom.xml文件里添加hadoop和junit依赖dependencies>dependency>!--hadoop客户端-->groupId>org.apache.hadoop/groupId>artifactId>hadoop-client/artifactId>version>3.3.4/vers

云计算技术 实验四 HDFS操作方法和基础编程

参考资料为:教材代码-林子雨编著《大数据基础编程、实验和案例教程(第2版)》教材所有章节代码_厦大数据库实验室博客1.实验学时4学时2.实验目的熟悉HDFS的基本shell命令熟悉HDFS的web管理掌握HDFS编程实践3.实验内容(一)参考实验指南的内容,完成相关的HDFS的基本shell命令。先启动hadoop: 输入命令查看hdfsdfs支持的操作:   查看具体命令的作用:  先新建文件夹: 运行命令显示HDFS与当前用户对应目录下的内容:创建input目录:删除input文件:创建一个xml文件复制文件到生成的input文件之中:查看HDFS中txt文件的内容:将txt文件移动到其他

大数据开源框架环境搭建(四)——HDFS完全分布式集群的安装部署

前言:本实验的所有路径均为本人计算机路径,有些路径需要看自己的,跟着我的一起做最好。普通用户下大部分命令需要加sudo,root模式下不用。如果怕麻烦,直接在root用户下操作。目录实验环境:实验步骤:一、配置NAT网络 ,分配静态IP地址1.打开VMware,选择编辑,选择虚拟网络编辑器,选择NAT模式,取消选择使用本地DHCP服务将IP地址分配给虚拟机(进行完此操作,虚拟机应该是没网了) 2.点击上图中的NAT设置,查看并记住网关IP(要以自己电脑的为准)3.打开控制面板\网络和Internet\网络连接,右键VMnet8,查看属性,选择Ipv4,点击属性: 4.打开终端,查看网卡名称:5

Spark读取HDFS路径文件

文章目录一、Spark读取HDFS路径文件1、函数介绍2、代码示例一、Spark读取HDFS路径文件有些时候我们希望直接读取HDFS上的文件进行处理,那么我们可以使用textFile这个方法,这个方法可以将指定路径的文件将其读出,然后转化为Spark中的RDD数据类型。1、函数介绍textFile是Spark中的一个函数,用于从文本文件中读取数据并创建一个RDD。它可以用于加载文本数据,并将每行文本作为RDD中的一个元素。以下是对textFile函数的详细介绍以及它的参数:deftextFile(path:String,minPartitions