草庐IT

hdfs_clusters

全部标签

hadoop - 当目录存在时 hdfs moveFromLocal 中的奇怪行为

我正在尝试使用moveFromLocalhdfsshell命令将文件(树结构)从本地文件系统移动到hdfs。如果目标子目录不存在,一切正常。但是,如果它们存在(这是一般情况——因为文件被添加到现有目录),则会创建层次结构中的另一个级别例子:磁盘上的原始结构$findsrcsrcsrc/asrc/a/2src/a/2/file1src/a/1src/a/1/file1src/a/4src/a/4/file1src/a/3src/a/3/file1src/bsrc/b/2src/b/2/file1src/b/1src/b/1/file1src/b/4src/b/4/file1src/b/3

java - 使用 java 将 hdfs 文件复制到另一个 hdfs 位置

我需要使用Java将hdfs文件复制到hdfs中的另一个位置。不应删除源,只是想在目标hdfs位置复制具有新文件名的源文件。我只能在FileSystem.java类中看到copyFromLocal、copyToLocal或重命名。谁能告诉我是否有任何方法可以将新名称的hdfs文件复制到源目录中? 最佳答案 使用FileUtil类的copy函数:来自javadoc(http://hadoop.apache.org/docs/stable/api/org/apache/hadoop/fs/FileUtil.html):publicsta

rhdfs - RJavaTools 将数据集写入 hdfs 时出错

我在hadoop的hortonworks沙箱版本上运行rStudioServer。我加载了rhdfs包,但是当我尝试使用hdfs.put()命令将数据集写入hdfs时,我收到以下错误:hdfs.put(mtcars,"/user/root")Errorin.jcall("RJavaTools","Ljava/lang/Object;","invokeMethod",cl,:java.io.IOException:Filec(21,21,22.8,21.4,18.7,18.1,14.3,24.4,22.8,19.2,17.8,16.4,17.3,15.2,10.4,10.4,14.7,3

hadoop - LZO-就地在 HDFS 上压缩和索引文件?

通常我会执行以下操作来使用LZO:使用lzop命令将数据文件压缩到本地磁盘。放入HDFS。使用分布式lzo索引器生成.index文件。我想知道有没有办法同时对HDFS上的原始文件进行压缩和索引? 最佳答案 是的,你可以:在客户端和服务器上的core-site.xml中,将com.hadoop.compression.lzo.LzopCodec添加到以逗号分隔的编解码器列表中:io.compression.codecsorg.apache.hadoop.io.compress.DefaultCodec,org.apache.hadoo

hadoop - 安装 Spark Cluster,Hive 的问题

我正在尝试启动Spark/Shark集群,但一直遇到同样的问题。我已按照https://github.com/amplab/shark/wiki/Running-Shark-on-a-Cluster上的说明进行操作并按照说明处理Hive。我认为SharkDriver正在使用另一个版本的Hadoopjar,但不确定原因。这是详细信息,任何帮助都会很棒。星火/鲨鱼0.9.0ApacheHadoop2.3.0Amplabshive0.11斯卡拉2.10.3Java7我已经安装了所有东西,但我收到了一些弃用警告,然后是一个异常:14/03/1411:24:47信息Configuration.d

hadoop - 在 RDD 方法中访问 HDFS 输入拆分路径

我的HDFS文件路径包含我想在Spark中访问的元数据,即类似以下内容的内容:sc.newAPIHadoopFile("hdfs://.../*"),...).map(rdd=>/*accesshdfspathhere*/)在Hadoop中,我可以通过FileSplit.getPath()访问整个拆分的路径。我可以在Spark中做任何类似的事情吗,或者我是否必须将路径字符串附加到扩展NewHadoopRDD中的每个RDD元素,我认为这可能相当昂贵? 最佳答案 在您提供给map()方法的闭包中,没有可用的元数据/执行上下文信息。你可能

bash - 如何查看整个根 hdfs 磁盘使用情况? (hadoop dfs -du/gets 子文件夹)

我们可能并不意外地认识到大数据对企业的吸引力,这是我们希望在我们的hadoop集群上监控的磁盘空间问题。我有一个cron作业在运行,它正在做我想做的事情,除了我想要其中一条输出行显示已使用的总体空间。换句话说,在bash中,“du/”命令的最后一行显示了整个磁盘上所有子文件夹的总使用情况。我想要这种行为。目前,当我运行“hadoopdfs-du/”时,我只得到子目录信息,而不是总计。获得它的最佳方式是什么?非常感谢所有SuperStackOverflow人员:)。 最佳答案 我只是没有正确理解文档!这是获得已用总空间的答案;$had

java - 将 HDFS 目录复制到本地节点

我正在处理单节点Hadoop2.4集群。我可以使用hadoopfs-copyToLocalmyDirectory复制目录及其所有内容。但是,我无法通过此java代码成功执行相同的操作:publicvoidmapObjectkey,Textvalue,Contextcontext)throwsIOException,InterruptedException{Configurationconf=newConfiguration(true);FileSystemhdfs=FileSystem.get(conf);hdfs.copyToLocalFile(false,newPath("myDi

hadoop - 一个巨大的DataStructure可以直接交给MapReduce处理而不加载到HDFS上吗?

我们正在研究将一个巨大的N维数据结构(NetCDF文件)流式传输作为Mapper函数的输入而无需写入文本文件然后加载到HDFS上的想法。我们有一个应用程序已经拥有这个巨大的数据结构。所以我们想跳过所有涉及写入和读取文本文件的开销。我们需要对以下问题的一些输入..1)第三方应用程序能否将数据直接流式传输到MapReduce?2)如果上述情况可行,MapReduce是否会处理将此DataStructure拆分为输入block,或者我们是否需要明确地执行此操作?3)这是否可能在ApacheSPARK上实现,因为Spark从DRAM运行,而DataStructure也在DRAM上,因此我们不必

hadoop - Flume + HDFS-200 追加

页面https://cwiki.apache.org/confluence/display/FLUME/Getting+Started说HDFSsink支持附加,但我没能找到任何关于如何启用它的信息,每个示例都在滚动文件上。因此,如果可能的话,我将不胜感激有关如何使水槽附加到现有文件的任何信息)更新可以将所有滚动属性设置为0,这将使flume写入单个文件,但它不会关闭文件并且新记录对其他进程不可见。有个题目和我的差不多:FlumeNGandHDFS,Dmitry说Flume不支持追加,但答案是一年前的,文档说的恰恰相反,所以我想也许flume得到了改进,或者我误解了什么,任何线索都将不