草庐IT

datanode-namenode

全部标签

Hadoop 2.2 添加新的 Datanode 到现有的 hadoop 安装

我首先在我的机器(称为Abhishek-PC)上安装了hadoop2.2,一切正常。我能够成功运行整个系统。(名称节点和数据节点)。现在我创建了1个VMhdclient1,我想将此VM添加为数据节点。这是我遵循的步骤我成功设置了SSH,我可以在没有密码的情况下通过ssh进入hdclient1,并且我可以在没有密码的情况下从hdclient1登录到我的主机。我在此虚拟机上安装了hadoop2.2,并根据网络上的许多教程修改了配置文件。这是我的配置文件名称节点配置https://drive.google.com/file/d/0B0dV2NMSGYPXdEM1WmRqVG5uYlU/edi

hadoop -/etc/hosts文件如何影响datanode和namenode的连接?

我现在正在建立一个hadoop集群(4台机器包括1台运行namenode和jobTracker的master,3台运行dataNode和TaskTracker的slave)。但遗憾的是所有datanode无法连接到9000端口上的master。当我使用sudonetsat-ntlp,结果是:tcp000.0.0.0:521930.0.0.0:*LISTEN-tcp000.0.0.0:20490.0.0.0:*LISTEN-tcp000.0.0.0:392670.0.0.0:*LISTEN7284/rpc.mountdtcp000.0.0.0:332190.0.0.0:*LISTEN72

java - hadoop java.io.IOException : while running namenode -format on OSX 错误

我在格式化namenode时遇到以下错误,我已经尝试使用sudosu,正如其他一些堆栈溢出解决方案中提到的那样,但我仍然遇到此错误,请协助。14/01/1616:10:41INFOutil.GSet:ComputingcapacityformapINodeMap14/01/1616:10:41INFOutil.GSet:VMtype=64-bit14/01/1616:10:41INFOutil.GSet:1.0%maxmemory=889MB14/01/1616:10:41INFOutil.GSet:capacity=2^20=1048576entries14/01/1616:10:4

hadoop - 如何将DataNode添加到Cloudera hadoop

我正在尝试向我现有的单个数据节点添加一个数据节点。由于我的Unix服务器无法访问Internet,ClouderaManager无法执行安装,因为它会抛出以下错误。是否有其他CLI方法来添加数据节点而不是CM?BEGINyuminfojdkLoadedplugins:product-id,subscription-managerUpdatingRedHatrepositories.http://archive.cloudera.com/cm4/redhat/6/x86_64/cm/4.7.2/repodata/repomd.xml:[Errno14]PYCURLERROR6-"Coul

hadoop - namenode.NameNode : Could not initialize shared edits dir

您好,我在HA集群配置时间遇到了所有这些错误。请帮助我哪里错了。14/09/0811:13:38INFOnamenode.AclConfigFlag:ACLsenabled?false14/09/0811:13:38INFOcommon.Storage:Lockon/usr/local/hadoop/dfs/tmp/dfs/name/in_use.lockacquiredbynodename1170@n314/09/0811:13:38WARNnamenode.FSNamesystem:Encounteredexceptionloadingfsimagejava.io.IOExcept

hadoop - datanode显示死了,如何让它复活

我已将2个数据节点添加到mapred.includeslaves文件中。检查了hadoopdfsadmin-report命令,发现状态如下。可用数据节点:0(总共2个,死2个)如何让他们活过来?请帮帮我。 最佳答案 尝试以下步骤:转到$HADOOP_HOME/bin./hadoop-daemon.sh--config$HADOOP_HOME/conf启动数据节点 关于hadoop-datanode显示死了,如何让它复活,我们在StackOverflow上找到一个类似的问题:

java - 使用Put命令写入HDFS,得到 "Exculding datanode"

当我使用“hadoopfs-putfile1.txt/home”时,出现了这些错误:2014-11-2512:42:27INFO[org.apache.hadoop.conf.Configuration.deprecation]fs.default.nameisdeprecated.Instead,usefs.defaultFS2014-11-2512:45:34INFO[org.apache.hadoop.hdfs.DFSClient]ExceptionincreateBlockOutputStreamjava.net.ConnectException:Connectiontimed

java - 是否建议每次在运行 jps 之前格式化 namenode?

我已经成功安装了Hadoop。但是当我启动所有守护进程并运行jps时,我看不到名称节点。但是,如果我使用命令hadoopnamenode-format格式化namenode,我可以在运行jps时看到namenode。是否建议每次在运行jps之前格式化namenode?有没有其他方法可以避免这种情况,这样我就可以看到我的namenode守护进程,而不必每次都格式化它。任何建议表示赞赏。谢谢,高瑟姆 最佳答案 是的,每次启动守护进程之前都需要格式化名称节点,除非您没有覆盖hdfs配置dfs.name.dir、dfs.data.dir。默

hadoop - Datanode 越来越死 ambari hadoop

我已经使用ambari1.7设置了hadoop集群我遇到了一个奇怪的问题。第一次数据节点启动,但在几分之一秒内自动停止。当我尝试重新启动datanode时,它​​没有启动。请帮我解决这个问题。重启datanode的日志如下2015-01-2617:58:02,233-Errorwhileexecutingcommand'start':Traceback(mostrecentcalllast):File"/usr/lib/python2.6/site-packages/resource_management/libraries/script/script.py",line123,inex

hadoop - Namenode 的元数据存储

名称节点也知道给定文件的所有block所在的数据节点,但是,它不会持久存储block位置,因为此信息是在系统启动时从数据节点重建的。坚持到底是什么意思? 最佳答案 这里持久化意味着名称节点将在内存中存储有关block信息的信息,而不是在文件系统或HDFS或任何数据库或任何类型的外部存储中维护这些信息。想想如果它持久保存在文件系统上,那么下次启动集群时,您将拥有所有信息。但是你认为名称节点的信息会是最新的吗?假设一个数据节点可能由于硬件故障而关闭,因此带有名称节点的信息将是陈旧的。 关于h