草庐IT

datanode-namenode

全部标签

hadoop - 如果我使用 S3 而不是 HDFS,是否仍然需要 Namenode?

最近我正在使用S3在ObjectStore上设置我的Hadoop集群,所有数据文件都存储在S3而不是HDFS中,并且我在S3上成功运行了spark和MP,所以我想知道我的名称节点是否仍然需要,如果是的话,当我在S3上运行hadoop应用程序时,我的名称节点会做什么?谢谢。 最佳答案 不,只要您有办法处理S3缺乏交付工作提交者所需的一致性这一事实。每隔一段时间,如果S3的列表不够一致,您的结果将是无效的并且您甚至不会注意到。不同的SparkonAWS供应商以他们自己的方式解决这个问题。如果您使用的是ASFspark,则没有任何捆绑软件

java - Hadoop datanode 启动失败 org.apache.hadoop.hdfs.server.common.Storage : Cannot lock storage

我在尝试在Hadoop中启动数据节点时遇到一些问题,从日志中我可以看到数据节点启动了两次(部分日志如下):2012-05-2216:25:00,369INFOorg.apache.hadoop.hdfs.server.datanode.DataNode:STARTUP_MSG:/************************************************************STARTUP_MSG:StartingDataNodeSTARTUP_MSG:host=master/192.168.0.1STARTUP_MSG:args=[]STARTUP_MSG:ve

hadoop - Namenode格式不释放datanode磁盘空间

关闭集群./stop-all.sh后,调用hadoopnamenode-format,我看到数据节点具有相同的磁盘空间,即空间尚未释放。这是为什么? 最佳答案 格式化NameNode前可以手动删除DataNode上的数据rmrUsage:hadoopfs-rmrURI[URI…]删除的递归版本。示例:hadoopfs-rmr/user/hadoop/dirhadoopfs-rmrhdfs://nn.example.com/user/hadoop/dir退出代码:成功返回0,错误返回-1。或者只要名称节点被格式化,数据节点就应该被重新

Hadoop UI 仅显示一个 Datanode

我已经启动了由1个主节点和4个从节点组成的hadoop集群。配置似乎没问题:hduser@ubuntu-amd64:/usr/local/hadoop$./bin/hdfsdfsadmin-report当我进入NameNodeUI(http://10.20.0.140:50070/)时,Overview卡似乎正常-例如所有节点的总容量汇总。问题是在卡片Datanodes中我只看到一个datanode。 最佳答案 我遇到了同样的问题,幸运的是,我解决了。我猜这是由“本地主机”引起的。在/etc/host中为这些IP配置不同的名称记得重

Hadoop namenode 无法退出安全模式

全部。我用的是hadoop2.6.0。当我强制hadoop离开安全模式时,使用hdfsdfsadmin-safemodeleave,它显示SafemodeisOFF,但我仍然无法删除文件在目录中,结果显示:rm:无法删除/mei/app-20151013055617-0001-614d554c-cc04-4800-9be8-7d9b3fd3fcef。名称节点处于安全模式。我尝试用网上列出的方式解决这个问题,但没有用...我使用命令“hdfsdfsadmin-report”,它显示:SafemodeisONConfiguredCapacity:52710469632(49.09GB)Pr

Hadoop 伪分布式模式 - Datanode 和 tasktracker 未启动

我正在运行安装了Hadoop1.1.2的RedHatEnterpriseLinuxServer6.4(Santiago)发行版。我已经进行了必要的配置以启用伪分布式模式。但是在尝试运行hadoop时,datanode和tasktracker没有启动。我无法将任何文件复制到hdfs。[hduser@is-joshbloom-hadoophadoop]$hadoopdfs-putREADME.txt/inputWarning:$HADOOP_HOMEisdeprecated.13/05/2316:42:00WARNhdfs.DFSClient:DataStreamerException:o

hadoop - 错误 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode : Exception in doCheckpoint

我在集群设置中使用Hadoop2.2.0,我反复收到以下错误,异常是在文件/opt/dev/hadoop/2.2.0/logs/下的名称节点olympus中产生的hadoop-deploy-secondarynamenode-olympus.log例如2014-02-1216:19:59,013INFOorg.mortbay.log:StartedSelectChannelConnector@olympus:500902014-02-1216:19:59,013INFOorg.apache.hadoop.hdfs.server.namenode.SecondaryNameNode:We

java - Datanode 守护进程未在 Hadoop 2.5.0 上运行

我在一台机器上设置Hadoop2.5.0,我遇到了datanode的问题,它没有运行,如jps命令的输出所示:$jps3404Jps2661NodeManager2606ResourceManager2484NameNode当我尝试手动运行它时,我得到了这个:$HADOOP_HOME/sbin/hadoop-daemon.shstartdatanodestartingdatanode,loggingto/home/arbi/Programs/hadoop-2.5.0/logs/hadoop-arbi-datanode-ElOued.out然后还是没有,下面是hadoop-arbi-da

hadoop - 手动重新平衡 hadoop hdfs 磁盘后,DataNode 不会重启

我在40台机器的集群中使用Hadoophadoop-2.0.0-mr1-cdh4.1.2。每台机器有12个磁盘供hadoop使用。一台机器上的一些磁盘不平衡,我决定按照这篇文章中提到的手动重新平衡:rebalanceindividualdatanodeinhadoop我停止了该服务器上的DataNode,移动了block文件对,在一些磁盘之间移动了整个子目录。我一停止DataNode,NameNode就通过在UI中显示以下消息来提示缺少block:警告:缺少2002个block。请检查日志或运行fsck以确定丢失的block。然后,我尝试重启DataNode。它拒绝成功启动,并不断记录

Hadoop HA Namenode远程访问

我正在使用HA名称节点配置Hadoop2.2.0稳定版,但我不知道如何配置对集群的远程访问。我配置了手动故障转移的HA名称节点,我定义了dfs.nameservices,我可以从集群中包含的所有节点访问带有名称服务的hdfs,但不能从外部访问。我可以通过直接联系事件名称节点来对hdfs执行操作,但我不想那样,我想联系集群然后被重定向到事件名称节点。我认为这是HA集群的正常配置。现在有人知道怎么做吗?(提前致谢...) 最佳答案 您必须向hdfs站点添加更多值:dfs.ha.namenodes.mynsmachine-98,machi