我是hadoop和其他东西的业余爱好者。现在,我正在尝试访问hadoop集群(HDFS)并从客户端eclipse检索文件列表。我在hadoopjavaclient上设置好需要的配置后就可以进行如下操作了。我可以执行copyFromLocalFile、copyToLocalFile操作从客户端访问HDFS。这就是我所面临的。当我给出listFiles()方法时,我得到了org.apache.hadoop.fs.LocatedFileStatus@d0085360org.apache.hadoop.fs.LocatedFileStatus@b7aa29bf主要方法Propertiespro
在给定时间,我的应用程序(apacheCMIS)中有用户文件系统。随着它越来越大,我怀疑是否转向hadoop(HDFS),因为我们也需要对其进行一些统计。问题:当前文件系统提供文件的版本控制。当我读到hadoop-HDFS-和文件版本控制时,我发现大多数时候我必须自己编写这个(版本控制)层。HDFS中是否已经有可用于管理文件版本控制的东西,或者我真的必须自己编写它(不想重新发明热水,但也没有找到合适的解决方案)。回答有关完整详细信息:请参阅下面对答案的评论Hadoop(HDFS)不支持文件的版本控制。当您将hadoop与(amazon)S3结合使用时,您可以获得此功能:Hadoop将使
我在伪分布式模式下使用Hadoop1.0.3。而我的conf/core-site.xml设置如下:fs.default.namehdfs://localhost:9000mapred.child.tmp/home/administrator/hadoop/temp所以我认为我的默认文件系统设置为HDFS。但是,当我运行以下代码时:Configurationconf=newConfiguration();FileSystemfs=FileSystem.get(conf);我认为fs应该是一个DistributedFileSystem实例。然而,结果却是LocalFileSystem实例。
我是hadoop的新手,所以请原谅这些愚蠢的问题。我有以下知识Hadoop的最佳用例是大文件,因此有助于在运行mapreduce任务时提高效率。牢记以上几点,我对FlumeNG感到有些困惑。假设我正在拖尾一个日志文件并且每秒生成一次日志,当日志获得新行时,它将通过Flume传输到hdfs。a)这是否意味着flume在我拖尾的日志文件中记录的每一行上创建一个新文件,或者它是否附加到现有的hdfs文件?b)首先在hdfs中允许追加吗??c)如果b的答案为真?即内容不断附加,我应该如何以及何时运行我的mapreduce应用程序?以上问题听起来可能很愚蠢,但非常感谢能回答相同的问题。PS:我还
我已经启动并运行了6个节点的cloudera5.0beta集群但是我无法使用命令查看hadoopHDFS的文件和文件夹sudo-uhdfshadoopfs-ls/在输出中它显示了linux目录的文件和文件夹。尽管namenodeUI正在显示文件和文件夹。在HDFS上创建文件夹时出现错误sudo-uhdfshadoopfs-mkdir/testmkdir:`/test':Input/outputerror由于此错误,hbase未启动并关闭并出现以下错误:Unhandledexception.Startingshutdown.java.io.IOException:Exceptioninm
哪种工具最适合测量HDFS空间消耗?当我总结“hdfsdfs-du/”的输出时,与“hdfsdfsadmin-report”(“DFSUsed”行)相比,我总是消耗更少的空间。是否有du没有考虑的数据? 最佳答案 Hadoop文件系统通过将数据副本放置到多个节点来提供重新标记存储。副本数是复制因子,通常大于一。命令hdfsdfs-du/显示空间在没有复制的情况下消耗了您的数据。命令hdfsdfsadmin-report(使用DFS行)显示实际磁盘使用情况,同时考虑了数据复制。所以当从dfs-ud命令获取数字时,它应该大几倍。
我在HDFS上有许多parquet文件目录,每个目录包含几千个小的(大多数使用以下代码,我可以将本地parquet文件重新分区为更少的部分:valpqFile=sqlContext.read.parquet("file:/home/hadoop/data/file.parquet")pqFile.coalesce(4).write.save("file:/home/hadoop/data/fileSmaller.parquet")但我不知道如何通过Scala代码以编程方式获取HDFS上目录的大小,因此我无法计算出要传递给coalesce函数的分区数真实数据集。我该怎么做?或者在Spar
我得到了错误Cannotcreatedirectory/home/hadoop/hadoopinfra/hdfs/namenode/current尝试在本地Mac上安装hadoop时。这可能是什么原因?仅供引用,我将我的xml文件放在下面:mapred-site.xml:mapreduce.framework.nameyarnhdfs-site.xml:dfs.replication1dfs.name.dirfile:///home/hadoop/hadoopinfra/hdfs/namenodedfs.data.dirfile:///home/hadoop/hadoopinfra/h
我想在我的四核机器上用hadoop和mahout做一些计算,所以我在伪分布式模式下使用hadoop。问题是我的根驱动器上的空间有限,所以我如何配置它以使用其他外部硬盘驱动器上的可用空间。 最佳答案 您可以配置hdfs存储数据的位置。将以下内容添加到您的conf/hdfs-site.xml中:dfs.data.dir__path_to_where_you_want_to_store_your_data/hdfs/data/dfs.name.dir__path_to_where_you_want_to_store_your_data/h
如何提供HDFS文件的链接,以便单击该url将下载HDFS文件..请提供输入...谢谢MRK 最佳答案 检查HDFSProxyGuide.还有Hoop这是contributed到Cloudera的Hadoop。目前它的目标是0.24版本。但是,可以使用HoopSite中的说明手动构建、安装和配置它。.虽然HDFSProxy仅支持W,但HOOP支持R/W到HDFS。计划用Hoop替换HDFSProxy。虽然上述选项是基于代理的,但另一种选择是在没有代理的情况下直接访问NameNode。浏览文件系统(http://namenode:50