草庐IT

namenodes

全部标签

java - 使用java获取hdfs namenode的状态

我正在创建一个java应用程序,它将读取目录中的文件。现在的问题是如何获取名称节点的状态/状态,因为我收到一条错误消息:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.StandbyException):OperationcategoryREADisnotsupportedinstatestandbyatorg.apache.hadoop.hdfs.server.namenode.ha.StandbyState.checkOperation(StandbyState.java:87)atorg.apache.had

hadoop - NameNode 和 NameSpace 有什么区别

作为Hadoop的初学者,我对NameNode和Namespace感到困惑。据我了解,它们都具有相同的功能,它们都包含元数据。它们之间有什么区别吗? 最佳答案 NameNode是一个包含(存储)命名空间的机器。NameNode的主要职责是存储HDFS命名空间。命名空间是文件和目录的层次结构。这意味着目录树、文件权限以及文件到blockID的映射。在Hadoop2.x中更进一步引入了联邦,尽管其主要目的是解决名称节点中的扩展问题 关于hadoop-NameNode和NameSpace有什么

hadoop - 如何跟踪 NiFi 中的 HDFS Active Namenode 更改事件?

我有HDFS集群,其中包含Active和StanbyNamenodes。有时,当集群重新启动时,Namenode会交换它们的角色-Standby变为Active,反之亦然。然后我让NiFi流和PutParquet处理器将一些文件写入这个HDFS集群。处理器的目录属性配置为“hdfs://${namenode}/some/path”,其中${namenode}变量值类似于“first.namenode.host.com:8020”。现在,当集群重新启动并且实际的Namenode更改为“second.namenode.host.com:8020”时,NiFi中的配置没有更新,处理器仍然尝试

ubuntu - Hadoop:Namenode 不启动。 JPS 仅显示要运行的 DataNode

我正在用两个Ubuntu机器构建一个hadoop集群。我在每台机器上都有一个名为“hduser”的专用Hadoop用户。当我在主服务器上使用“start-dfs.sh”时,会在主服务器和从服务器上创建DataNode。但是NameNode并不是在master上创建的。即使我要求守护进程专门启动NameNode,它也不起作用。hduser@hbase1:~$bash/usr/local/hadoop/sbin/hadoop-daemon.shstartnamenodestartingnamenode,loggingto/usr/local/hadoop/logs/hadoop-hduse

hadoop - 在 hadoop 2.4.1 中启动 namenode 时出错

当我尝试使用以下方式启动dfs时:start-dfs.sh我收到一条错误消息:14/07/0311:03:21WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhereapplicableStartingnamenodeson[OpenJDK64-BitServerVMwarning:Youhaveloadedlibrary/usr/local/hadoop/lib/native/libhadoop.so.1.0.0whichmight

hadoop - 如何使用密码保护 Hadoop NameNode 和 JobTracker Web UI?

我想知道如何使用密码保护在端口50030、50070等上运行的HadoopWebUI。 最佳答案 我认为最好的办法是关闭防火墙中的端口,让用户使用SSH隧道连接。 关于hadoop-如何使用密码保护HadoopNameNode和JobTrackerWebUI?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/5054687/

hadoop - 从SVN “no namenode to stop”通过Hadoop替换mapred/hdfs/common jar构建后

我从中checkout源代码http://svn.apache.org/repos/asf/hadoop/commonhttp://svn.apache.org/repos/asf/hadoop/hdfshttp://svn.apache.org/repos/asf/hadoop/mapreduce并得到hadoop-mapred-0.23.0-SNAPSHOT.jarhadoop-hdfs-0.23.0-SNAPSHOT.jarhadoop-common-0.23.0-SNAPSHOT.jar但是我无法使用这些jar启动all.sh...Jobtracker和tasktracker启

hadoop - Namenode 没有退出安全模式

我正在尝试将一些虚拟文件放入HDFS,但它显示foll。错误:$hadoopfs-putdummy.txt/user/hadoopput:org.apache.hadoop.hdfs.server.namenode.SafeModeException:Cannotcreatefile/user/hadoop/dummy.txt.Namenodeisinsafemode.为此我尝试了命令:$hadoopdfsadmin-safemodeleave并尝试执行之前的hadoopput命令。但它又给我同样的错误。名称节点未退出安全模式。请提供任何帮助。 最佳答案

hadoop -/etc/hosts文件如何影响datanode和namenode的连接?

我现在正在建立一个hadoop集群(4台机器包括1台运行namenode和jobTracker的master,3台运行dataNode和TaskTracker的slave)。但遗憾的是所有datanode无法连接到9000端口上的master。当我使用sudonetsat-ntlp,结果是:tcp000.0.0.0:521930.0.0.0:*LISTEN-tcp000.0.0.0:20490.0.0.0:*LISTEN-tcp000.0.0.0:392670.0.0.0:*LISTEN7284/rpc.mountdtcp000.0.0.0:332190.0.0.0:*LISTEN72

java - hadoop java.io.IOException : while running namenode -format on OSX 错误

我在格式化namenode时遇到以下错误,我已经尝试使用sudosu,正如其他一些堆栈溢出解决方案中提到的那样,但我仍然遇到此错误,请协助。14/01/1616:10:41INFOutil.GSet:ComputingcapacityformapINodeMap14/01/1616:10:41INFOutil.GSet:VMtype=64-bit14/01/1616:10:41INFOutil.GSet:1.0%maxmemory=889MB14/01/1616:10:41INFOutil.GSet:capacity=2^20=1048576entries14/01/1616:10:4