草庐IT

namenodes

全部标签

启动hdfs报错:Attempting to operate on hdfs namenode as root but there is no HDFS NAMENODE USER defined.

问题:配置好了hadoop的文件一启动就发现报错造成原因:这个问题呢,其实还是你的配置文件配错了,有两个配置文件的问题:core-site.xml文件hadoop-env.sh文件这两个文件都是在hadoop软件下的etc/下的配置文件其次可能还有就是你之前就配置过hadoop,并且还修改过环境变量的文件比如说/etc/profile这个文件解决问题有了问题导向就可以解决问题了首先查看一下hadoop所在的文件夹的上一个文件夹看是那个用户可以操作我的hadoop安装的目录是在/opt/module/下的输入ll或者ls-l可以看见这个文件夹可以操作的用户有是root然后查看core-site.

java - "hadoop namenode -format"返回 java.net.UnknownHostException

我目前正在学习hadoop,并且正在尝试设置一个单节点测试,如http://hadoop.apache.org/common/docs/current/single_node_setup.html中所定义的那样我已经配置了ssh(我可以不用密码登录)。我的服务器在我们的Intranet上,在代理后面。当我想跑的时候bin/hadoopnamenode-format我得到以下java.net.UnknownHostException异常:$bin/hadoopnamenode-format11/06/1015:36:47INFOnamenode.NameNode:STARTUP_MSG:

hadoop - namenode 运行端口 53210 或 50070 的确切位置

hadoop中的端口53210和50070有什么区别?namenode在53210或50070的哪个端口工作?如果nameNode运行在53210那么为什么我们从50070访问namenode信息? 最佳答案 据我所知,默认情况下名称节点不会在53210上运行任何东西。50070是WebUI,8020是客户端用来与名称节点通信的端口。我认为8020也被数据节点用来向NameNode发送心跳,但我在这里不是100%确定。 关于hadoop-namenode运行端口53210或50070的确

hadoop命令在节点中查找namenode

我试过了步骤-Loginintoparticularnode-andexecutethecommandjps结果5144JobTracker4953NameNode5079SecondaryNameNode5216Jps这工作正常,但我知道在节点中查找namenode的任何其他命令 最佳答案 可以使用命令查看Namenode、Datanode和SecondaryNamenode进程的信息:ps-fuhdfs可以使用命令查看ResourceManager、NodeManager进程的信息:ps-fuyarn

hadoop - 连接到 HDFS Namenode 的问题

在新的hadoop单节点安装之后,我在hadoop-root-datanode-localhost.localdomain.log中得到以下错误2014-06-1823:43:23,594ERRORorg.apache.hadoop.security.UserGroupInformation:PriviledgedActionExceptionas:rootcause:java.net.ConnectException:Calltolocalhost/127.0.0.1:54310failedonconnectionexception:java.net.ConnectException

hadoop - NameNode 未以伪分布式模式启动

我无法在hadoopfs-ls/命令上查看我的HDFS中的文件,我认为这是因为名称节点未运行。我已尝试格式化名称节点以及更改核心站点中的端口.xml到不同的值。我的JPS仍然没有列出NameNode。文件如下:1)核心站点.xmlhadoop.tmp.dir/home/hduser/tmpAbaseforothertemporarydirectories.fs.default.namehdfs://localhost:50000Thenameofthedefaultfilesystem.AURIwhoseschemeandauthoritydeterminetheFileSystemi

Hadoop:NameNode 如何知道哪些 block 对应于一个文件?

hadoop中的NameNode不存储block信息。它保存在内存中,并在启动时DataNodes报告block信息。如果我从本地复制一个文件到hdfs,它会被传输到hdfs,因为我可以用“hadoopfs-ls”看到。我想知道Hadoop如何知道哪个文件名对应于哪个block。 最佳答案 NameNode维护一个FileSystemImage,它存储文件->block之间的映射。它还存储一个编辑日志,用于维护对文件系统的任何编辑。Secondarynamenode定期从Namenode读取FileSystemImage和EditL

hadoop - Hortonworks Data Platform HDP 2.1 启动 Namenode 错误

我已经在SUSE11VM中安装了HDP2.1.1.0。格式化后第一次尝试启动名称节点时收到以下错误:/usr/lib/hadoop-hdfs/bin/../libexec/hdfs-config.sh:Nosuchfileordirectory/usr/lib/hadoop-hdfs/bin/hdfs:line206:exec::notfound请为此提出一些解决方案。仅供引用:我也更新了.bashrc文件中的libexec路径详细信息。仍然遇到同样的问题。 最佳答案 我发现在从HDP2.1存储库安装Hadooprpm时,libex

hadoop - 删除 Hadoop 的一个节点,它也是 NameNode

我最近创建了一个包含五台服务器的集群:掌握节点01节点02节点03节点04为了拥有更多“worker”,我将Nademode添加到/etc/hadoop/slaves中的奴隶列表中。这行得通,master执行了一些mapReduce作业。今天我想从工作列表中删除这个节点(这对它来说太占用CPU资源了)。我想在我的hdfs-site.xml中设置dfs.exclude,但我担心这也是主服务器。有人可以确认执行此操作没有风险吗?谢谢,罗曼。 最佳答案 如果主节点中存储有数据(可能是因为它是一个DataNode),您基本上会丢失该数据。但

java - 为 Hadoop 安装格式化 namenode

如何格式化HDFS的Namenode?我试过以下命令raj@raj-SVE15115ENB:~$/home/raj/hadoop/bin/hadoopnamenode-格式警告:$HADOOP_HOME已弃用。/home/raj/hadoop/bin/hadoop:第320行:/usr/lib/jvm/java-7-sun/bin/java:没有这样的文件或目录/home/raj/hadoop/bin/hadoop:第390行:/usr/lib/jvm/java-7-sun/bin/java:没有这样的文件或目录为什么会这样? 最佳答案