草庐IT

namenodes

全部标签

hadoop - 执行 hadoop namenode -format

我正在尝试在hadoop上工作,因此我使用:-Java1.6Eclipse欧罗巴3.3.2安装Cygwinhadoop0.19.1当我使用命令时发生错误:-$hadoop-*/bin/hadoopnamenode-format/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh:line2:$'\r':commandnotfound/home/user/hadoop-0.19.1/bin/../conf/hadoop-env.sh:line7:$'\r':commandnotfound/home/user/hadoop-0.19.1/bi

hadoop - 无法访问 Namenode 网址

我尝试使用namenodeIP访问namenode的weburl。它抛出错误HTTPERROR404Problemaccessing/dfshealth.jsp。原因:NOT_FOUND我可以使用主机名访问Namenode网址。/etc/hosts文件:127.0.0.1localhost192.168.10.103impc2390192.168.10.102impc2359192.168.10.101impc2391192.168.10.111impc2394192.168.10.104impc2361我试过192.168.10.104:50070它抛出了一个错误,找不到页面我试过i

ubuntu - Hadoop namenode 找不到datanode

环境:2台Ubuntu14.04VM在VMware工作站下运行。我已经成功地设置了一个单节点集群,现在我正在尝试设置一个完全分布式的集群,其中一个名称节点在主节点上运行,一个数据节点在从节点上运行。运行start-dfs.sh和start-yarn.sh后,我可以在主从机器上看到所有需要的进程。(主节点和数据节点上的namenode、resourcemanager、secondarynamenode,从节点上的nodemanager。但是我在master:50070(namenodewebapp)上找不到我的数据节点。telnetmaster9000来自slave的回复成功连接。这一整

hadoop namenode、datanode、secondarynamenode 没有启动

我刚刚下载了hadoop-0.20tar并解压了。我设置了JAVA_HOME和HADOOP_HOME。我修改了core-site.xml、hdfs-site.xml和mapred-site.xml。我开始服务了。jpsjpsJobTrackerTaskTracker我检查日志。它说2015-02-1118:07:52,278INFOorg.apache.hadoop.hdfs.server.namenode.NameNode:STARTUP_MSG:/************************************************************STARTUP_

hadoop - 为什么 Hadoop 使用 namenode 和 datanode?

我们知道,用于大数据处理的服务器应该能够容忍硬件故障。我的意思是,如果我们有3个服务器(A、B、C),突然B服务器宕机,A和C可以取代它的位置。但是在hadoop中,我们知道hadoop使用的是namenode和datanode,也就是当namenode宕机的时候,我们就不能再处理数据了,听起来缺乏对硬件故障的容忍度。hadoop的这种设计架构有什么原因吗? 最佳答案 您提到的问题称为单点故障,它存在于较早的hadoop版本中。尝试更新版本的hadoop,例如2.x.x。2.0.0版的Hadoop通过分配两个名称节点,即active

Hadoop NameNode 启动失败,错误 : FSNamesystem initialization failed. java.io.FileNotFoundException

我得到的异常是,2011-07-1312:04:13,006ERRORorg.apache.hadoop.hdfs.server.namenode.NameNode:java.io.FileNotFoundException:Filedoesnotexist:/opt/data/tmp/mapred/system/job_201107041958_0120/j^@^@^@^@^@^@atorg.apache.hadoop.hdfs.server.namenode.FSDirectory.unprotectedSetPermission(FSDirectory.java:544)ator

hadoop - 如何在hdfs中持久化namenode信息

我在我的桌面上设置了一个单节点集群。问题是我不能让我的桌面一直运行。我确实执行了stop-all.sh,稍后当我执行start-all.sh时,我的名称节点没有启动。最后我必须做%hadoopnamenode-format,通过丢失我的所有数据继续那里。 最佳答案 出了点严重的问题。请检查名称节点写入的图像和编辑文件发生了什么。如果它们没问题——NameNode可以启动。另外...存储NN数据的最后一个地方是HDFS-因为你会遇到鸡蛋和鸡肉的问题。没有NN数据HDFS不可访问。 关于ha

hadoop - hdfs-site.xml 上的配置属性是否适用于 hadoop 中的 NameNode?

最近搭建了一个hadoop的测试环境集群-一主两从Master不是dataNode(尽管有些使用master节点作为主节点和从节点)。所以基本上我有2个数据节点。复制的默认配置是3。最初,我没有更改conf/hdfs-site.xml上的任何配置。我遇到错误couldonlybereplicatedto0nodesinsteadof1。然后我在我的主从中更改了conf/hdfs-site.xml中的配置,如下所示:dfs.replication3瞧!一切正常。我的问题是:尽管我更改了所有数据节点和名称节点中的hdfs-site.xml,但此配置是否适用于名称节点或数据节点。如果我的理解

ubuntu - hdfs namenode -格式错误(没有那个文件或目录)

尝试在我的ubuntu机器上本地运行hadoop2.3.0,尝试格式化hdfs名称节点,我收到以下错误:/usr/local/hadoop/hadoop-hdfs-project/hadoop-hdfs/src/main/bin/hdfs:line34:/usr/local/hadoop/hadoop-hdfs-project/hadoop-hdfs/src/main/bin/../libexec/hdfs-config.sh:Nosuchfileordirectory/usr/local/hadoop/hadoop-hdfs-project/hadoop-hdfs/src/main/

hadoop - 不允许Datanode连接到Hadoop 2.3.0集群中的Namenode

我正在尝试建立一个ApacheHadoop2.3.0集群,我有一个主节点和三个从节点,从节点列在$HADOOP_HOME/etc/hadoop/slaves文件中,我可以从从节点远程登录到端口9000上的主名称节点,但是当我在任何从节点上启动数据节点时,我得到以下异常。2014-08-0308:04:27,952FATALorg.apache.hadoop.hdfs.server.datanode.DataNode:InitializationfailedforblockpoolBlockpoolBP-1086620743-xx.xy.23.162-1407064313305(Data