草庐IT

datanode-namenode

全部标签

hadoop - 本地主机 : ERROR: Cannot set priority of datanode process 32156

我正在尝试在ubuntu16.04上安装hadoop但是在启动hadoop时它会给我以下错误localhost:ERROR:Cannotsetpriorityofdatanodeprocess32156.Startingsecondarynamenodes[it-OptiPlex-3020]2017-09-1821:13:48,343WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhereapplicableStartingresou

memory - Hadoop Namenode 元数据 - fsimage 和编辑日志

我知道fsimage在启动时加载到内存中,并且出于性能原因,任何进一步的事务都会添加到编辑日志而不是fsimage。当namenode重启时,内存中的fsimage会被刷新。为了提高效率,secondarynamenode会定期做一个checkpoint来更新fsimage,这样namenode的恢复会更快。这些都很好。但是我不明白的一点是,假设一个文件已经存在并且关于这个文件的信息在内存中的fsimage中。现在我将此文件移动到另一个位置,该位置在编辑日志中更新。现在,当我尝试列出旧文件路径时,它会提示它不存在或其他什么。这是否意味着namenode也会查看编辑日志,这与内存中的fs

hadoop - 无法创建目录/home/hadoop/hadoopinfra/hdfs/namenode/current

我得到了错误Cannotcreatedirectory/home/hadoop/hadoopinfra/hdfs/namenode/current尝试在本地Mac上安装hadoop时。这可能是什么原因?仅供引用,我将我的xml文件放在下面:mapred-site.xml:mapreduce.framework.nameyarnhdfs-site.xml:dfs.replication1dfs.name.dirfile:///home/hadoop/hadoopinfra/hdfs/namenodedfs.data.dirfile:///home/hadoop/hadoopinfra/h

java - block 池 <registering> 初始化失败(Datanode Uuid 未分配)

此错误的来源是什么以及如何修复?2015-11-2919:40:04,670FATALorg.apache.hadoop.hdfs.server.datanode.DataNode:InitializationfailedforBlockpool(DatanodeUuidunassigned)servicetoanmol-vm1-new/10.0.1.190:8020.Exiting.java.io.IOException:Allspecifieddirectoriesarenotaccessibleordonotexist.atorg.apache.hadoop.hdfs.serve

java - NameNode 地址的 URI 无效

我正在尝试设置一个ClouderaHadoop集群,其中一个主节点包含namenode、secondarynamenode和jobtracker,以及另外两个包含datanode和tasktracker的节点。Cloudera版本为4.6,操作系统为ubuntuprecisex64。此外,此集群是从AWS实例创建的。sshpasswordless也已设置,Java安装Oracle-7。每当我执行sudoservicehadoop-hdfs-namenodestart我得到:2014-05-1405:08:38,023FATALorg.apache.hadoop.hdfs.server.

hadoop - Namenode-HDFS "Connection refused"错误(Hadoop 问题)

当我们看到使用jps命令时,我的所有节点都已启动并正在运行,但我仍然无法连接到hdfs文件系统。每当我在HadoopNamenodelocalhost:8020页面上单击Browsethefilesystem时,我得到的错误是ConnectionRefused。我也尝试过格式化并重新启动名称节点,但错误仍然存​​在。谁能帮我解决这个问题。 最佳答案 检查您的所有服务是否都在运行JobTracker、Jps、NameNode。DataNode、TaskTracker通过运行jps命令。尝试一个一个地运行它们:./bin/stop-al

hadoop - HDFS_NAMENODE_USER、HDFS_DATANODE_USER 和 HDFS_SECONDARYNAMENODE_USER 未定义

我是hadoop新手。我正在尝试以伪分布式模式在我的笔记本电脑中安装hadoop。我使用root用户运行它,但出现以下错误。root@debdutta-Lenovo-G50-80:~#$HADOOP_PREFIX/sbin/start-dfs.shWARNING:HADOOP_PREFIXhasbeenreplacedbyHADOOP_HOME.UsingvalueofHADOOP_PREFIX.Startingnamenodeson[localhost]ERROR:AttemptingtooperateonhdfsnamenodeasrootERROR:butthereisnoHDF

Hadoop - 重启datanode和tasktracker

我想关闭单个数据节点和tasktracker,以便我在mapred-site.xml中所做的一些新更改生效,例如mapred.reduce.child.java.opts等。我该怎么做去做?但是我不想关闭整个集群,因为我有正在运行的作业。另外,如何确保名称节点不会将“暂时关闭”数据节点的相关数据block复制到另一个节点上 最佳答案 停止您可以从NameNode的hadoopbin目录中停止DataNode和TaskTracker。./hadoop-daemon.shstoptasktracker./hadoop-daemon.sh

hadoop - 无法找到或加载主类 org.apache.hadoop.hdfs.server.namenode.Namenode

我知道之前有人问过这个问题,但我想不出解决方案。当我尝试运行hdfsnamenode-format时出现以下错误:Couldnotfindorloadmainclassorg.apache.hadoop.hdfs.server.namenode.NamenodeIfollowedtheinstructionsfromthiswebsitetoinstallonmycentosmachine.唯一的区别是我使用root而不是链接中提到的hadoopuser安装。Bashrc#UserspecificaliasesandfunctionsexportJAVA_HOME=/usr/lib/j

hadoop - 伪模式下没有namenode错误

我是hadoop的新手,正处于学习阶段。根据HadoopDefinitve指南,我已经在伪分布式模式下设置了我的hadoop,并且一切正常。昨天我什至能够执行第3章中的所有示例。今天,当我重新启动我的unix并尝试运行start-dfs.sh然后尝试localhost:50070...它显示错误,当我尝试停止dfs(stop-dfs.sh)时,它说没有要停止的名称节点。我一直在谷歌搜索这个问题,但没有结果。此外,当我再次格式化我的名称节点时......一切都开始正常工作并且我能够连接到localhost:50070甚至在hdfs中复制文件和目录,但是一旦我重新启动我的linux并尝试连