草庐IT

nameNode

全部标签

amazon-s3 - 我无法让 Hadoop 开始使用 Amazon EC2/S3

我已经创建了一个AMI镜像并从ClouderaCDH2构建安装了Hadoop。我这样配置了我的core-site.xml:fs.default.names3:///fs.s3.awsAccessKeyIdfs.s3.awsSecretAccessKeyhadoop.tmp.dir/var/lib/hadoop-0.20/cache/${user.name}但是当我在namenode日志中启动hadoop守护进程时,我收到以下错误消息:2010-11-0323:45:21,680ERRORorg.apache.hadoop.hdfs.server.namenode.NameNode:ja

hadoop - HDFS伪分布式模式namenodes启动报错

我正在尝试以伪分布式模式在MacOSX(Java7)上启动HDFS。我按照在不同地方找到的说明(例如https://hadoop.apache.org/docs/r1.2.1/single_node_setup.html)创建了一个包含配置文件的目录。我可以在不需要密码的情况下通过ssh连接到本地主机。但是当我尝试启动hdfs时,我得到以下信息:$start-dfs.sh--config~/hadoop-pseudodistributed2014-03-1201:15:14.125java[84567:1903]UnabletoloadrealminfofromSCDynamicSto

Hadoop HA部署过程中出现主备namenode或datanode挂掉的问题

在部署HadoopHA的过程时,当进行到hdfsnamenode-format格式化这一步骤时显示org.apache.hadoop.hdfs.qjournal.client.QuorumException:UnabletocheckifJNsarereadyforformatting.1exceptionsthrown:拒绝连接查阅多篇文章分析可知其原因是节点之间无法通信,所以无法建立连接解决方法1.首先查看配置文件hdfs中dfs.namenode.shared.edits.dir是否出错2.查看zk集群是否启动,其次查看master和slave1上的journalnode是否启动3.查阅

hadoop - 运行 Hadoop/bin/start-all.sh 时名称解析暂时失败

我在SUSELinux上运行Hadoop/bin/start-all.sh时遇到“Temporaryfailureinnameresolution”。我搜索了很多网站寻找问题,但找不到有效的答案。期待您的帮助,谢谢!!它部署在一个相同的机器上,所以在主/从文件中只有一行:localhostsolom@linux87:~/hadoop>bin/hadoopnamenode-format11/07/1217:43:10INFOnamenode.NameNode:STARTUP_MSG:/****************************************************

hadoop - HDFS HA 可能性

最近,我成功地为HDFS和YARN启用了HA。现在我有一个事件的和备用的名称节点,自动故障转移工作正常。我正在使用ClouderaManager和CDH5。我有以下问题。例如,如果我的事件Namenode崩溃而备用Namenode变为事件状态,是否可以自动设置先前崩溃的Namenode以在它变得健康时将自己提升为事件状态?这样,一开始配置为备用的Namenode在关键情况下就可以简单地作为替代。期待您的回答! 最佳答案 查看这篇文章以了解故障转移过程:HowdoesHadoopNamenodefailoverprocessworks

hadoop - 二级名称节点功能

谁能解释一下从教科书中摘录的粗体字词的确切含义?“次要名称节点的状态滞后于主要名称节点的状态”是什么意思?二级名称节点保留合并命名空间图像的副本,可在名称节点出现故障时使用。**然而,国家次要名称节点滞后于主要名称节点,因此如果主要名称节点完全失败,数据丢失几乎是肯定的。**在这种情况下,通常的做法是将名称节点在NFS上的元数据文件复制到辅助并将其作为新的主要运行。提前致谢 最佳答案 Hadoop1.x:当我们启动hahadoop集群时,它会创建一个文件系统镜像,用于保存整个hadopp集群的元数据信息。当一个新条目进入hadoop

hadoop - 为什么我无法访问 http ://hadoop-master:50070 when i define dfs. namenode.http-address

Hadoop版本为2.7.1修改hdfs.xml,添加两个属性:dfs.namenode.http-addressHADOOP-MASTER:50070dfs.namenode.secondary.http-addressHADOOP-SLAVE-1:50090然后重启hadoop集群,但是我无法访问http://hadoop-master:50070.namenode进程还活着。和[hadoop@HADOOP-MASTER~]$lsof-i:50070COMMANDPIDUSERFDTYPEDEVICESIZE/OFFNODENAMEjava26541hadoop184uIPv412

hadoop - 为什么HDFS客户端会将文件数据缓存到一个临时的本地文件中?

为什么HDFS客户端不能直接发送到DataNode?HDFS客户端缓存有什么优势?创建文件的应用程序请求不会立即到达NameNode。事实上,HDFS客户端最初会将文件数据缓存到一个临时的本地文件中。应用程序写入透明地重定向到这个临时本地文件。当本地文件积累了至少一个HDFSblock大小的数据时,客户端联系NameNode创建一个文件。NameNode然后按照创建部分中的描述继续进行。客户端将数据block从本地临时文件刷新到指定的DataNodes。当文件关闭时,临时本地文件中剩余的未刷新数据将传输到DataNode。然后客户端告诉NameNode文件已经关闭。此时,NameNod

hadoop - NameNode 地址的 URI 无效,s3a 不是模式 'hdfs'

根据我的研究,我正在做一些关于在hadoop环境(yarn)中用Ceph替换HDFS的事情,来自hortonworks的指南和ReplaceHDFSformlocaldisktos3gettingerror显示我需要修改$hadoop_home/etc/hadoop下的core-site.xml。我的修改如下:fs.s3a.access.keyxxxxxxxxxxxxxxfs.s3a.secret.keyxxxxxxxxxxxxxfs.default.names3a://bucket_namefs.defaultFSs3a://bucket_namefs.s3a.endpointhtt

hadoop 空指针异常

我正在尝试设置hadoop的多节点集群michael-noll'sway使用两台计算机。当我尝试格式化hdfs时,它显示了一个NullPointerException。hadoop@psycho-O:~/project/hadoop-0.20.2$bin/start-dfs.shstartingnamenode,loggingto/home/hadoop/project/hadoop-0.20.2/bin/../logs/hadoop-hadoop-namenode-psycho-O.outslave:bash:line0:cd:/home/hadoop/project/hadoop-