草庐IT

nameNode

全部标签

java - 次要名称节点未启动

设置hadoop版本1.0.3后出现此错误:$bin/start-all.shWarning:$HADOOP_HOMEisdeprecated.startingnamenode,loggingto/var/log/hadoop/daley/hadoop-daley-namenode-datapath3.cise.ufl.edu.outlocalhost:startingdatanode,loggingto/var/log/hadoop/daley/hadoop-daley-datanode-datapath3.cise.ufl.edu.outlocalhost:startingseco

hadoop - Hortonworks HA Namenodes 给出错误 "Operation category READ is not supported in state standby"

我的hadoop集群HA事件名称节点(host1)突然切换到备用名称节点(host2)。我无法在hadoop日志(在任何服务器中)中找到任何错误来确定根本原因。切换名称节点后,hdfs日志中经常出现以下错误,并且应用程序无法读取HDFS文件。2014-07-1701:58:53,381WARNnamenode.FSNamesystem(FSNamesystem.java:getCorruptFiles(6769))-Getcorruptfileblocksreturnederror:OperationcategoryREADisnotsupportedinstatestandby一旦我

hadoop - 执行 hdfs namenode -format 时出错

我是hadoop、hdfs的新手..我已经完成了接下来的步骤:我已经在三个名称节点中启动了zookeeper:*vagrant@172:~$zkServer.shstart我可以看到状态:*vagrant@172:~$zkServer.shstatus结果状态:JMXenabledbydefaultUsingconfig:/opt/zookeeper-3.4.6/bin/../conf/zoo.cfgMode:follower用jps命令只出现jps有时也会出现quaroom:*vagrant@172:~$jps2237Jps我也运行下一个命令。*vagrant@172:~$hdfsz

hadoop - 运行 jps 命令不显示 NameNode 或 Tasktracker ID,虽然它在我使用 start.sh 命令时启动

jps命令应该显示IDJPSNameNodeTaskTrackerJobTracker但我只获得了JPS及其ID。其余部分工作正常。4801Jps为方便起见,我尝试发布屏幕截图,但由于我没有10分或类似的积分,所以不允许。如果有其他方法,如果您需要查看屏幕截图来帮助我解决问题,请告诉我。此致。 最佳答案 如果您已经使用sudo启动了hadoop服务,那么您需要使用sudo权限运行JPS。$sudojps 关于hadoop-运行jps命令不显示NameNode或TasktrackerID,

hadoop - 启动我的 hadoop 名称节点时出错

我想在我的ubuntu机器上实现一个伪分布式的hadoop系统,但是我无法启动namenode(其他像jobtracker可以正常启动)。我的开始命令是:./hadoopnamenode-format./start-all.sh我检查了位于logs/hadoop-mongodb-namenode-mongodb.log的namenode日志652013-12-2513:44:39,797INFOorg.apache.hadoop.hdfs.server.namenode.FSNamesystem:ReplicateQueueQueueProcessingStatistics:Queue

hadoop - 如何查看namenode状态?

作为开发人员,我如何检查给定Namenode的当前状态,如果它是事件的还是备用的?我已经尝试过getServiceState命令,但它仅适用于具有super用户访问权限的管理员。任何可以从边缘节点运行的命令来获取提供的namemnode的状态?? 最佳答案 最后,我得到了这个问题的答案。作为开发人员,由于限制,无法执行dfsadmin命令。为了检查名称节点的可用性,我在shellscript中使用了下面的if循环,它起到了作用。它不会准确地告诉您名称节点处于事件状态,但通过循环,您可以轻松地相应地执行所需的程序。ifhdfsdfs-

hadoop - 在 HDFS 中遇到大量文件时,实际理想的 NameNode 内存大小是多少

我的HDFS集群中将有2亿个文件,我们知道每个文件将在NameNode内存中占用150个字节,加上3个block,因此在NN中总共有600个字节。所以我将我的NN内存设置为250GB以很好地处理2亿个文件。我的问题是250GB这么大的内存,会不会对GC造成太大的压力?为NN创建250GB内存是否可行。Cansomeonejustsaysomething,whynobodyanswer?? 最佳答案 理想的名称节点内存大小约为数据元使用的总空间+操作系统+守护进程的大小以及处理相关数据的20-30%空间。您还应该考虑数据进入集群的速率

hadoop - 名称节点未在 hadoop 中格式化

在普通账户中。我创建了一些目录。/usr/local/hadoop-2.7.3/data/dfs/namenode/usr/local/hadoop-2.7.3/data/dfs/namesecondary/usr/local/hadoop-2.7.3/data/dfs/datanode/usr/local/hadoop-2.7.3/data/yarn/nm-local-dir/usr/local/hadoop-2.7.3/data/yarn/system/rmstore然后输入一些命令bin/hdfsnamenode–formatsudosbin/start-all.shjps然后在

memory - Hadoop Namenode 元数据 - fsimage 和编辑日志

我知道fsimage在启动时加载到内存中,并且出于性能原因,任何进一步的事务都会添加到编辑日志而不是fsimage。当namenode重启时,内存中的fsimage会被刷新。为了提高效率,secondarynamenode会定期做一个checkpoint来更新fsimage,这样namenode的恢复会更快。这些都很好。但是我不明白的一点是,假设一个文件已经存在并且关于这个文件的信息在内存中的fsimage中。现在我将此文件移动到另一个位置,该位置在编辑日志中更新。现在,当我尝试列出旧文件路径时,它会提示它不存在或其他什么。这是否意味着namenode也会查看编辑日志,这与内存中的fs

hadoop - 无法创建目录/home/hadoop/hadoopinfra/hdfs/namenode/current

我得到了错误Cannotcreatedirectory/home/hadoop/hadoopinfra/hdfs/namenode/current尝试在本地Mac上安装hadoop时。这可能是什么原因?仅供引用,我将我的xml文件放在下面:mapred-site.xml:mapreduce.framework.nameyarnhdfs-site.xml:dfs.replication1dfs.name.dirfile:///home/hadoop/hadoopinfra/hdfs/namenodedfs.data.dirfile:///home/hadoop/hadoopinfra/h