草庐IT

namenodes

全部标签

hadoop - Datanode 拒绝与 namenode 通信,因为无法解析主机名

我在kubernetes中运行了一个hadoop集群,有4个日志节点和2个名称节点。有时,我的数据节点无法注册到名称节点。17/06/0807:45:32INFOdatanode.DataNode:BlockpoolBP-541956668-10.100.81.42-1496827795971(DatanodeUuidnull)servicetohadoop-namenode-0.myhadoopcluster/10.100.81.42:8020beginninghandshakewithNN17/06/0807:45:32ERRORdatanode.DataNode:Initiali

hadoop - AWS EMR 不生成 NameNode FsImage

我们一直在运行一个3节点AWSEMR集群(1个NameNode,2个DataNode)。观察到Namenode检查点没有发生,fsImage,md5文件没有更新。编辑日志堆积如山,导致NameNode因磁盘空间不足而出现故障。HDFS版本:Hadoop2.8.3-amzn-0-rw-r--r--1hdfshdfs62Sep312:04fsimage_0000000000000000000.md5-rw-r--r--1hdfshdfs317Sep312:04fsimage_0000000000000000000-rw-r--r--1hdfshdfs260954697Sep313:49ed

hadoop - JobTracker 是否也是 Hadoop 中的单点故障(除了 NameNode)?

我是Hadoop新手。在hadoop中,我知道当一个NameNode失败时,整个Hadoop框架都会崩溃。所以它是Hadoop中的单点故障。JobTracker也一样吗?因为如果JobTracker宕机,在提交作业后将没有守护进程联系Namenode,也没有运行TaskTracker的意义。这究竟是如何处理的? 最佳答案 是的,JobTracker是MRv1中的单点故障。在JobTracker失败的情况下,所有正在运行的作业都将停止(http://wiki.apache.org/hadoop/JobTracker)。在YARN中,资

hadoop - namenode ha故障转移时间

NamenodeHA(NFS、QJM)在hadoop2.x(HDFS-1623)中可用。它为Namenode提供快速故障转移,但我找不到任何关于多长时间从故障中恢复的描述。谁能告诉我?谢谢你的回答。事实上,我想知道两个节点(activenamenode和standbynamenode)转换之间的时间。你能告诉我多长时间吗? 最佳答案 以下是一些使用备用NameNode进行故障转移的合格示例:A60nodeclusterwith6millionblocksusing300TBrawstorage,and100Kfiles:30seco

java - 在 hadoop 安装期间尝试执行命令 "hdfs: command not found"时出现 "hdfs namenode -format"

完整的错误陈述:Nocommand'hdfs'found,didyoumean:Command'hfs'frompackage'hfsutils-tcltk'(universe)Command'hdfls'frompackage'hdf4-tools'(universe)hdfs:commandnotfound 最佳答案 您的HDFS安装可能有问题,请尝试在命令中提供hdfs的完整路径。/path/to/dir/hdfsnamenode-format路径取决于您的操作系统和您使用的hadoop发行版等。使用locate或find。如

hadoop - 不格式化启动namenode

我尝试使用bin/start-all.sh启动名称节点。但是,这个命令不会启动名称节点。我知道如果我执行bin/hadoopnamenode-format,namenode将启动,但在那种情况下,我将丢失所有数据。有没有办法在不格式化的情况下启动namenode? 最佳答案 您的问题可能与以下问题有关:Hadoop默认将其NameNode数据写入/tmp/hadoop-文件夹,每次重启后都会清除该文件夹。将以下属性添加到conf/hdfs-site.xmldfs.name.dir“dfs.name.dir”属性允许您控制Hadoop

Hadoop NameNode IP 地址

我正在使用HadoopMapReduce范例,我需要获取NameNodeIP来自DataNode的地址,任何人都可以告诉我如何做到这一点吗?谢谢。 最佳答案 最简单的方法是快速打开HADOOP_HOME/conf目录下的core-site.xml文件。fs.default.name属性的值将告诉您运行NN的主机和端口。 关于HadoopNameNodeIP地址,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.

java - 启动namenode失败 : java.net.BindException: Address already in use

我正在尝试启动名称节点,但它一直显示:启动名称节点失败。java.net.BindException:地址已在使用中;。netstat-a|grep9000返回tcp00:9000*:LISTENtcp600[::]:9000[::]:*LISTEN这是正常的还是我需要终止其中一个进程?名称节点在安装后启动并运行,但在我运行WordCount作业后突然停止工作。我试过多次重启VM并格式化名称节点,但这没有帮助。hdfs-site.xml如下:dfs.replication1dfs.namenode.name.dir文件:///usr/local/hdfs/namenodedfs.dat

java - Hadoop-2.6.0 Namenode 未格式化

我刚刚安装了Hadoop2.6.0,在格式化名称节点时,它在以下行停止并且没有退出代码返回。STARTUP_MSG:build=https://git-wip-us.apache.org/repos/asf/hadoop.git-re3496499ecb8d220fba99dc5ed4c99c8f9e33bb1;compiledby'jenkins'on2014-11-13T21:10ZSTARTUP_MSG:java=1.7.0_79/15/08/2818:45:22INFOnamenode.NameNode:registeredUNIXsignalhandlersfor[TERM,

hadoop - 如果我使用 S3 而不是 HDFS,是否仍然需要 Namenode?

最近我正在使用S3在ObjectStore上设置我的Hadoop集群,所有数据文件都存储在S3而不是HDFS中,并且我在S3上成功运行了spark和MP,所以我想知道我的名称节点是否仍然需要,如果是的话,当我在S3上运行hadoop应用程序时,我的名称节点会做什么?谢谢。 最佳答案 不,只要您有办法处理S3缺乏交付工作提交者所需的一致性这一事实。每隔一段时间,如果S3的列表不够一致,您的结果将是无效的并且您甚至不会注意到。不同的SparkonAWS供应商以他们自己的方式解决这个问题。如果您使用的是ASFspark,则没有任何捆绑软件