草庐IT

datanode-namenode

全部标签

hadoop - 在 Hadoop 中,我在哪里可以更改 namenode 和 jobtracker 网页的默认 url 端口 50070 和 50030

必须有一种方法可以更改端口50070和50030,以便以下url显示我选择的端口上的集群状态NameNode-http://localhost:50070/JobTracker-http://localhost:50030/ 最佳答案 通过在conf/core-site中为Namenode设置属性dfs.http.address和为Jobtracker设置属性mapred.job.tracker.http.address来定义您的端口选择.xml:dfs.http.address50070mapred.job.tracker.htt

hadoop - 为什么datanode会把 block 位置信息发给namenode呢?

关于https://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-hdfs/HDFSHighAvailabilityWithNFS.html有的话:theDataNodesareconfiguredwiththelocationofbothNameNodes,andsendblocklocationinformationandheartbeatstoboth.但是为什么这个信息会被发送到namenode和它的fallbackbrother呢?我认为这些信息已经包含在namenode的fs图像中。名称节点应该知道他把b

ubuntu - Namenode 和 Datanode 没有在 hadoop 中启动

我在运行Ubuntu14.04LTS的笔记本电脑上安装了hadoop2.6.0。我通过运行start-all.sh启动了hadoop守护进程。但是当我输入jps时,只有4个正在运行10545SecondaryNameNode10703ResourceManager11568Jps10831NodeManager之前只有datanodeonly没有运行所以我删除了tmp文件夹并重新创建了它。现在namenode和datanode都没有运行。我还检查了50070和50075是否被任何其他进程使用,但没有进程使用它们。tcp00127.0.0.1:90000.0.0.0:*LISTEN100

Hadoop:格式在/mnt/hdfs/1/namenode 中中止

我在ec2上创建了几个ebs文件系统以与hadoop一起使用。我已经在hadoop环境中设置了JAVE_HOME。但是当我去格式化第一卷时,它会中止并显示以下消息[root@hadoop-node01conf]#sudo-uhdfshadoopnamenode-format13/02/0615:33:22INFOnamenode.NameNode:STARTUP_MSG:/************************************************************STARTUP_MSG:StartingNameNodeSTARTUP_MSG:host=had

hadoop - Namenode文件数量限制

有人知道在Hdfs的namenode中每个文件占用多少字节吗?我想估计一个32G内存的namenode可以存储多少个文件。 最佳答案 每个文件或目录或block在名称节点内存中占用大约150个字节。[1]因此,具有32GRAM的名称节点的集群最多可以支持(假设名称节点是瓶颈)大约3800万个文件。(每个文件也将占用一个block,因此每个文件实际上占用300个字节。我还假设3x复制。因此每个文件占用900个字节)然而在实践中,这个数字会少很多,因为所有的32G都不会被名称节点用来保存映射。您可以通过为该机器中的名称节点分配更多堆空间

Hadoop Ha namenode java 客户端

我是hdfs的新手。我正在编写可以连接远程hadoop集群并将数据写入远程hadoop集群的Java客户端。StringhdfsUrl="hdfs://xxx.xxx.xxx.xxx:8020";FileSystemfs=FileSystem.get(hdfsUrl,conf);这很好用。我的问题是如何处理启用HA的hadoop集群。启用HA的hadoop集群将有两个名称节点——一个事件名称节点和一个备用名称节点。如何在运行时从我的客户端代码中识别事件名称节点。http://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.1.1/bk_syst

Hadoop Datanode slave 没有连接到我的 master

由于许多错误,我无法弄清楚为什么没有将datanodeslavevm连接到我的mastervm中。欢迎任何建议,所以我可以试试。首先,其中之一是我的从虚拟机日志中的错误:WARNorg.apache.hadoop.hdfs.server.datanode.DataNode:Problemconnectingtoserver:ubuntu-378e53c1-3e1f-4f6e-904d-00ef078fe3f8:9000因此,我无法在我的主虚拟机中运行我想要的作业:hadoopjar./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.

hadoop - 无法启动 CDH4 辅助名称节点 : Invalid URI for NameNode address

我一直在尝试设置hadoop的CDH4安装。我有12台机器,标记为hadoop01-hadoop12,名称节点、作业跟踪器和所有数据节点都已正常启动。我能够查看dfshealth.jsp并看到它找到了所有数据节点。但是,每当我尝试启动辅助名称节点时,它都会出现异常:StartingHadoopsecondarynamenode:[OK]startingsecondarynamenode,loggingto/var/log/hadoop-hdfs/hadoop-hdfs-secondarynamenode-hadoop02.dev.terapeak.com.outExceptionint

hadoop - fsimage 和 edit log 文件实际存储在哪个文件夹或什么位置,供 namenode 在启动期间读取和合并?

当名称节点启动时,它从图像文件fsimage读取HDFS状态,然后应用编辑日志文件中的编辑。如果我没记错的话,Name节点启动就是我们写start-all.sh的时候。因此,在启动期间,我认为它读取fsimage并编辑日志并将它们合并。但它实际上是从哪个文件夹或哪个位置读取这两个内容的? 最佳答案 在hadoop-1.x中,start-all.sh脚本内部执行两个操作start-dfs.sh和start-mapred.sh。start-dfs.sh将启动hdfs所需的所有守护进程,即:datanode、namenode、second

hadoop - 如何判断 hadoop namenode 是否已经格式化?

第一次配置我的hadoopnamenode时,我知道我需要运行bin/hadoopnamenode-format但是第二次运行它,在将数据加载到HDFS之后,将清除所有内容并重新格式化。有没有一种简单的方法可以判断一个名称节点是否已经被格式化? 最佳答案 你可以检查这个文件store1/名称/当前/版本如果它存在,那么它已经被格式化了。PS:您在生产系统中一生只格式化一次。最好在安装过程中或在紧急恢复时手动进行。 关于hadoop-如何判断hadoopnamenode是否已经格式化?,我