草庐IT

namenodes

全部标签

hadoop - namenode.NameNode : Could not initialize shared edits dir

您好,我在HA集群配置时间遇到了所有这些错误。请帮助我哪里错了。14/09/0811:13:38INFOnamenode.AclConfigFlag:ACLsenabled?false14/09/0811:13:38INFOcommon.Storage:Lockon/usr/local/hadoop/dfs/tmp/dfs/name/in_use.lockacquiredbynodename1170@n314/09/0811:13:38WARNnamenode.FSNamesystem:Encounteredexceptionloadingfsimagejava.io.IOExcept

java - 是否建议每次在运行 jps 之前格式化 namenode?

我已经成功安装了Hadoop。但是当我启动所有守护进程并运行jps时,我看不到名称节点。但是,如果我使用命令hadoopnamenode-format格式化namenode,我可以在运行jps时看到namenode。是否建议每次在运行jps之前格式化namenode?有没有其他方法可以避免这种情况,这样我就可以看到我的namenode守护进程,而不必每次都格式化它。任何建议表示赞赏。谢谢,高瑟姆 最佳答案 是的,每次启动守护进程之前都需要格式化名称节点,除非您没有覆盖hdfs配置dfs.name.dir、dfs.data.dir。默

hadoop - Namenode 的元数据存储

名称节点也知道给定文件的所有block所在的数据节点,但是,它不会持久存储block位置,因为此信息是在系统启动时从数据节点重建的。坚持到底是什么意思? 最佳答案 这里持久化意味着名称节点将在内存中存储有关block信息的信息,而不是在文件系统或HDFS或任何数据库或任何类型的外部存储中维护这些信息。想想如果它持久保存在文件系统上,那么下次启动集群时,您将拥有所有信息。但是你认为名称节点的信息会是最新的吗?假设一个数据节点可能由于硬件故障而关闭,因此带有名称节点的信息将是陈旧的。 关于h

hadoop - 错误配置 : namenode address dfs. namenode.servicerpc-address 或 dfs.namenode.rpc-address 没有配置

我正在尝试在ec2-instance上安装Hadoop-2.6.0。我下载并安装了Hadoop。我还设置了环境变量。尝试启动hdfs服务时出现以下错误。[ec2-user@ip-10-177-1-69sbin]$./start-dfs.sh配置不正确:namenode地址dfs.namenode.servicerpc-address或dfs.namenode.rpc-address没有配置。在[]上启动名称节点报错:找不到配置目录:/home/ec2-user/hadoop2.6.0/etc/hadoop报错:找不到配置目录:/home/ec2-user/hadoop2.6.0/etc

hadoop - 从非 hdfs 源读取时 namenode.LeaseExpiredException 而 df.write.parquet

我有一个在yarn集群上运行并使用databricks库将csv转换为parquet的spark代码。当csv源是hdfs时它工作正常。但是当csv源不是hdfs时(通常是这种情况),我遇到了这个异常。它不应该发生,因为相同的代码适用于hdfscsv源。问题的完整链接:https://issues.apache.org/jira/browse/SPARK-19344 最佳答案 如评论中所述。当文件位于驱动程序节点上,但节点无法访问时,读取将失败。当使用读取输入文件时(例如spark2.0中的spark.read),所有执行程序节点都

ubuntu - hadoop-1.2.1 namenode未格式化

我已经在Ubuntu16上安装了hadoop1.2.1,配置如下:核心站点.xmlfs.default.namehdfs://localhost:8020hadoop.tmp.dirtmpDir/snadikop/hadoopdatahdfs-site.xmldfs.replication1mapred-site.xmlmapred.job.trackerlocalhost:8021当我第一次启动时,一切正常。但是当我重新启动系统时,当我尝试启动守护进程时,namenode没有启动。尝试过hadoopnamenode-format命令并尝试过sudochownsnadikoptmpDi

hadoop - 当我点击 jps 命令时,namenode datanode 和 sec name node 没有启动

我在Ubuntu中以伪分布式模式使用Hadoop1.2.1,一切正常。但后来我不得不重新启动我的系统。现在,当我在给出start-all.sh后点击jps命令时,我只能看到tasktracker和jobtracker正在运行。谁能告诉我这个问题的可能原因?并指导我解决这个问题?************************************************************/2017-03-1318:41:16,733INFOorg.apache.hadoop.hdfs.server.datanode.DataNode:STARTUP_MSG:/*********

Hadoop NameNode 联盟

一段时间以来,我一直在努力理解hadoop中的联邦。我的问题是假设我有两个NameNodeNN1和NN2,NN1管理金融命名空间NN2管理IT命名空间。如果NN1出现故障,我仍然可以访问NN1之前维护的财务namespace。如果是怎么办?? 最佳答案 不,我们不能访问金融命名空间。如果一个NameNode或namespace被删除,DataNode上对应的block池也将被删除。更多信息请引用这里https://hortonworks.com/blog/an-introduction-to-hdfs-federation/http

hadoop - 在 Hadoop 单集群节点中格式化 namenode 时出错

我正在尝试根据https://data-flair.training/blogs/installation-of-hadoop-3-x-on-ubuntu/的指南在系统Ubuntu16.04中安装和配置hadoop。所有步骤都成功运行,但是在尝试运行命令hdfsnamenode-format时,我收到一条消息 最佳答案 您的bashrc文件有问题。只需检查bashrc中的variables即可。甚至我在开始使用hadoop时也遇到了同样的问题。提及每个变量的正确路径,然后使用source~/.bashrc将所做的更改提交到你的bas

hadoop - “WARN hdfs.DFSUtil: Namenode for null remains unresolved for ID null.”

我想在配置后测试我的hadoop是否运行良好,但是在输入之后,命令start-all.sh在终端中显示如下错误WARNhdfs.DFSUtil:NamenodefornullremainsunresolvedforIDnull.Checkyourhdfs-site.xmlfiletoensurenamenodesareconfiguredproperly.Startingnamenodeson[master]master:ssh:Couldnotresolvehostnamemaster:Nameorservicenotknown我检查了我的hdfs-site.xml文件并像其他人那样