草庐IT

HDFS_NAMENODE

全部标签

hadoop - 如何在hadoop中显示hdfs根目录?

我使用hadoop2.8.1,根据一些引用资料(很多书籍和其他在线论坛)告诉我在哪里可以使用“hadoopfs-ls/”来查找hdfs文件系统根目录。但是当我键入该命令时,终端显示本地目录而不是hdfsroot。这有什么问题,在此先感谢。 最佳答案 如果可以执行hadoopversion命令,并且返回正确信息,说明Hadoop安装成功。我认为HDFS配置可能有问题。试试这个:在本地文件系统中找到core-site.xml文件。它应该位于/etc/hadoop/conf目录中。打开core-site.xml文件并找到此属性:fs.de

hadoop - NameNode 地址的 URI 无效,s3a 不是模式 'hdfs'

根据我的研究,我正在做一些关于在hadoop环境(yarn)中用Ceph替换HDFS的事情,来自hortonworks的指南和ReplaceHDFSformlocaldisktos3gettingerror显示我需要修改$hadoop_home/etc/hadoop下的core-site.xml。我的修改如下:fs.s3a.access.keyxxxxxxxxxxxxxxfs.s3a.secret.keyxxxxxxxxxxxxxfs.default.names3a://bucket_namefs.defaultFSs3a://bucket_namefs.s3a.endpointhtt

lucene - 打开存储在 hdfs 中的 lucene 索引

如何读取存储在HDFS上的lucene索引目录,即如何为存储在HDFS上的索引获取IndexReader。IndexReader将在maptask中打开。类似于:IndexReaderreader=IndexReader.open("hdfs/path/to/index/directory");谢谢,阿基尔 最佳答案 如果您想打开一个存储在HDFS中的Lucene索引以进行搜索,那您可就倒霉了。AFAIK,没有实现允许搜索操作的HDFS目录。出现这种情况的原因之一是因为HDFS针对大块的顺序读取进行了优化,而不是Lucene产生的小

java - 运行 bin/hadoop namenode -format 时出现 fatal error

运行bin/hadoopnamenode-format时出现fatalerror使用Windows7操作系统,在C:\cygwin\usr\local\hadoop-0.20.203.0\conf下编辑hadoop-env.sh文件,#exportJAVA_HOME=C:/ProgramFiles/Java/jdk1.6.0_24exportJAVA_HOME=C:/jdk1.6.0_24.我将我的Java类路径设置为C:/jdk1.6.0_24。FatalError]hdfs-site.xml:5:2:Themarkupinthedocumentfollowingtherootele

Hadoop 复制模型 - DataStreamer/Namenode

首先,感谢您阅读我的问题!我目前正在研究Hadoop的复制模型,但我已无路可走。我从“OreillyHadoop权威指南第3版2012年1月”一书中学习。要提出这个问题,我首先需要阅读本书下面的文字。在第73页,有以下内容:“DistributedFileSystem返回一个FSDataOutputStream供客户端Hadoop分布式文件系统开始向其中写入数据。就像读取的情况一样,FSDataOutputStream>包装一个DFSOutputStream,它处理与数据节点和名称节点的通信。当客户端写入数据(第3步)时,DFSOutputStream将其拆分为数据包,并将其写入称为数

python - Hadoop:在 Ubuntu 12.04 中通过 NameNode 格式化 HDFS 文件系统

我正在学习本教程http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/注意:是的,我知道我确实将hadoop安装到/usr/local/hadoop/hadoop/但教程没有当我运行时:hduser@ubuntu:~$/usr/local/hadoop/hadoop/bin/hadoopnamenode-format我明白了Warning:$HADOOP_HOMEisdeprecated./usr/local/hadoop/hadoop/bin/hadoop:li

events - 从 HDFS 接收文件系统事件和通知

HDFS是否提供轮询文件系统事件(如文件创建/修改/删除)的方法?此外,它是否提供/支持任何回调机制以在此类事件发生时得到通知?我没有看到这种东西的直接和详细的用例,但是有一个特定的要求来检查这个功能。我没有遇到任何提到这一点的文件。如果有任何HDFS提交者对此发表评论,那就太好了。 最佳答案 目前没有允许这样做的内置HDFS功能。解决方法是对监视目录执行客户端轮询,或手动跟踪所有记录事件的事务日志。 关于events-从HDFS接收文件系统事件和通知,我们在StackOverflow上

hadoop - 修改HDFS的 block 放置策略

我想修改HDFS的默认block放置策略以适合我的应用程序。例如,我有两个文件file1(128MB)和file2(128MB)。block大小为64MB,每个文件将被分成两个block。我想确保file1和file2的block1都放在同一个数据节点上。如果可能的话,我还想确保副本也放在同一组数据节点上。问题1。这可能吗?如果可以,需要修改源码中的哪些类?问题2。copyFromLocal等命令如何映射到hadoop源代码中的函数? 最佳答案 block放置策略的默认行为可以通过扩展BlockPlacementPolicy来修改。

java - Hadoop 从 HDFS 写入/读取 int[]

我想了解如何在HDFS中的文件中写入和读取int数组。因为int[]数组不是Writable对象,所以我实际上使用的是类org.apache.hadoop.io.ObjectWritable因此写入任务归结为以下调用:newObjectWritable(int[].class,array).write(arg0);相反,读取任务会导致以下情况:int[]array={};newObjectWritable(int[].class,array).readFields(arg0);我不太确定最后一个代码片段。事实上,如果我尝试执行它,我会在第二行得到一个NullPointerExcepti

hadoop - pig : How to load the output of an hdfs ls into an alias?

我正在尝试查看我的hdfs中的文件并评估哪些文件早于特定日期。我想执行一个hdfsls并将它的输出传递给一个pigLOAD命令。在对HowCanILoadEveryFileInaFolderUsingPIG?的回答中@DonaldMiner包含一个输出文件名的shell脚本;我借用它来传递文件名列表。但是,我不想加载文件的内容,我只想加载ls命令的输出并将文件名视为文本。这是myfirstscript.pig:test=LOAD'$files'as(moddate:chararray,modtime:chararray,filename:chararray);illustratetes