草庐IT

hdfs_clusters

全部标签

java - 我应该如何从我的桌面访问我的 hdfs 文件系统

我想运行mapreduce作业的jar文件。我的输入和输出文件在hdfs中。我的WordCountJob.jar文件在桌面上。输入文件(在hdfs内):/rucha/input/sample.txt输出文件(hdfs内):/rucha/output/resulthadoopjarWordCountJob.jar/usr/local/hadoop/input/usr/local/Cellar/hadoop/output/result那么运行这个从hdfs获取输入并将结果存储在hdfs中的jar文件的命令是什么。 最佳答案 您需要修改命

hadoop - hdfs jmxget 与 hdfs fsck

我有2个名称节点和几个数据节点,但今天我刚刚看到我有一些损坏的block。尴尬的是:hdfsjmxget-servernamenode02-port8006|grepCorruptBlocksCorruptBlocks=27当我用hdfsfsck/检查时,我有:Totalsize:734930879995888B(Totalopenfilessize:537967073B)Totaldirs:1501316Totalfiles:113743394Totalsymlinks:0(Filescurrentlybeingwritten:137)Totalblocks(validated):1

python - 使用 Spark-DataFrame 将 HDFS 保存到 MongoDB

我正在尝试使用PyMongo连接器保存Spark-DataFrame。以下是我的代码,但每次运行代码时都会出现错误:java.io.IOException:NoFileSystemforscheme:mongodb以下是我的代码:importpymongoimportpymongo_sparkpymongo_spark.activate()frompysparkimportSparkContext,SparkConffrompyspark.sqlimportSQLContextconf=SparkConf()sc=SparkContext(conf=conf)sqlContext=SQ

java - HDFS - 加载大量文件

出于测试目的,我尝试将大量小文件加载到HDFS中。实际上,我们谈论的是100万(1'000'000)个大小从1KB到100KB不等的文件。我在一个文件夹中的Linux系统上使用R脚本生成了这些文件。每个文件都有一个信息结构,其中包含带有产品信息的标题和带有数字信息的不同数量的列。问题是当我尝试使用命令将这些本地文件上传到HDFS时:hdfsdfs-copyFromLocal/home/user/Documents/smallData/然后我得到以下Java-Heap-Size错误之一:Exceptioninthread"main"java.lang.OutOfMemoryError:J

java - 如何测试 HDFS I/O 吞吐量

我有一个Java程序,它使用HDFS数据输入/输出流读取文件并将内容写入新文件。我的目标是找出我的HDFS的I/O吞吐量。下面是执行读/写和计时的代码片段:longstart=System.currentTimeMillis();FSDataInputStreamin=fs.open(newPath(input));FSDataOutputStreamout=fs.create(newPath(output),true);while((bytesRead=in.read(buffer))>0){out.write(buffer,0,bytesRead);data+=bytesRead;

Java:HDFS复制目录

有没有一种简单的方法可以将HDFS目录复制到Java中的另一个目录?例如,我如何将/user/abc/pudding的内容移动到/user/def/pudding?我正在寻找一些与UNIX的cp命令等效的HDFS,我可以用Java以编程方式执行它。注意:我知道FileSystem但它似乎只允许我从本地机器复制到HDFS? 最佳答案 尝试FileUtil中的一种复制方法.例如:importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.FileSystem

hadoop - 找出 HDFS 中的实际磁盘使用情况

有没有办法找出HDFS中消耗了多少空间?我用过hdfsdfs-df但删除大量数据后似乎与此无关hdfsdfs-rm-r-skipTrash之前的命令不是立即显示更改,而是在几分钟后显示更改(我需要最新的磁盘使用信息)。 最佳答案 要查看特定文件夹占用的空间,请尝试:hadoopfs-du-s/folder/path而如果你想查看整个HDFS的使用情况、占用空间、可用空间等:hadoopdfsadmin-report 关于hadoop-找出HDFS中的实际磁盘使用情况,我们在StackOv

java - HDFS 文件校验和

我正在尝试使用HadoopAPI-DFSCleint.getFileChecksum()来检查文件复制到HDFS后的一致性。我得到以上代码的以下输出:NullHDFS:nullLocal:null谁能指出错误或错误?这是代码:importjava.io.IOException;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.FileChecksum;importorg.apache.hadoop.fs.FileSystem;importorg.apache.hadoop.fs.LocalFile

redis - 既然 Redis Cluster 自带分片、复制和自动故障转移,我还需要使用 Sentinel 来处理故障转移吗?

既然RedisCluster带有分片、复制和自动故障转移功能,我还需要使用Sentinel来处理故障转移吗? 最佳答案 没有。Sentinel用于在单实例模式(单主/一个或多个从属)下使用Redis时管理可用性并提供服务发现。在集群模式下使用Redis时,不需要Sentinel。 关于redis-既然RedisCluster自带分片、复制和自动故障转移,我还需要使用Sentinel来处理故障转移吗?,我们在StackOverflow上找到一个类似的问题: ht

HDFS文件上传与下载

实验环境LinuxUbuntu16.04前提条件:1)Java运行环境部署完成2)Hadoop的单点部署完成上述前提条件,我们已经为你准备就绪了。实验内容在上述前提条件下,学习HDFS文件上传与下载的相关操作命令实验步骤1.点击桌面的"命令行终端",打开新的命令行窗口2.启动HDFS启动HDFS,在命令行窗口输入下面的命令:/apps/hadoop/sbin/start-dfs.sh运行后显示如下,根据日志显示,分别启动了NameNode、DataNode、SecondaryNameNode:dolphin@tools:~$/apps/hadoop/sbin/start-dfs.shStart