草庐IT

hadoop - 开始-dfs.sh : command not found on ubuntu 12. 04

我已经安装了hadoop2.2.0。在Ubuntu12.04上。但是命令start-dfs.sh不起作用。当我运行此命令时,它返回start-dfs.sh:commandnotfound。start-dfs.sh、start-all.sh、stop-dfs.sh和stop-all.sh位于sbin目录中。可能是什么问题? 最佳答案 第一个解决方案设置Hadoop环境变量$cd~$vi.bashrc pastefollowingtotheendofthefile #HadoopvariablesexportJAVA_HOME=/usr

hadoop - 无法在 Hadoop 多节点集群中启动 start-dfs.sh

我已经创建了一个hadoop多节点集群,并且还在主节点和从节点中配置了SSH,现在我可以在主节点中无需密码连接到从节点但是当我尝试在主节点中启动dfs.sh时,我无法连接到从节点,执行在下面的行停止日志:HNname@master:~$start-all.shstartingnamenode,loggingto/usr/local/hadoop/libexec/../logs/hadoop-HNname-namenode-master.outHDnode@slave'spassword:master:startingdatanode,loggingto/usr/local/hadoop

hadoop - 使用 start-dfs.sh 的问题

我使用此链接创建了一个4节点集群:https://blog.insightdatascience.com/spinning-up-a-free-hadoop-cluster-step-by-step-c406d56bae42,但是一旦我到达启动hadoop集群的部分,我就会收到如下错误:$HADOOP_HOME/sbin/start-dfs.shStartingnamenodeson[namenode_dns]namenode_dns:mkdir:cannotcreatedirectory‘/usr/local/hadoop/logs’:Permissiondeniednamenode

java - dfs.block.size 用于本地 hadoop 作业?

我想运行一个hadoop单元测试,使用本地文件系统模式...我希望看到几个part-m-*文件被写入磁盘(而不是只有1个)。但是,由于它只是一个测试,我不想处理64M的数据(我相信默认大小是每个block~64megs)。在分布式模式下我们可以使用dfs.block.size我想知道是否有一种方法可以让我的本地文件系统写出小的part-m文件,也就是说,这样我的单元测试将用几个(尽管非常小)文件模拟大规模数据的内容。 最佳答案 假设您的输入格式可以处理可拆分文件(参见org.apache.hadoop.mapreduce.lib.i

hadoop - 如何恢复移出/dataN/dfs/dn/当前目录的HDFS block ?

由于一系列不幸的事件,一个程序从/dataN/dfs/dn/current/BP-XXXXXXX/current/finalized/subdirN/subdirN/blk_NNNNNNNNNN进入/tmp/blk_NNNNNNNNNN我没有从程序中获取任何日志记录来判断原始subdirN/subdirN/目录的位置。有什么方法可以根据fsimage文件、block文件本身或其他一些元数据找出这个block应该在哪里?我通过查找相应的*.meta文件能够恢复一些block,但仍然存在一些漏洞。复制使我免于最糟糕的情况,但我仍然缺少5个我想尝试恢复的“关键任务”文件。从hdfsfsck/

ubuntu - java.io.IOException : All directories in dfs. datanode.data.dir 无效

我试图让hadoop和hive在我的linux系统上本地运行,但是当我运行jps时,我注意到数据节点服务丢失了:vaughn@vaughn-notebook:/usr/local/hadoop$jps2209NameNode2682ResourceManager3084Jps2510SecondaryNameNode如果我运行bin/hadoopdatanode,会出现以下错误:17/07/1319:40:14INFOdatanode.DataNode:registeredUNIXsignalhandlersfor[TERM,HUP,INT]17/07/1319:40:14WARNut

linux - DFS Used% : 100. 00% 从属虚拟机在 Hadoop 中关闭

我的从属虚拟机出现故障,我猜这是因为使用的DFS是100%。你能给出一个系统的方法来解决这个问题吗?是防火墙问题吗?容量问题或可能导致它的原因以及如何解决?ubuntu@anmol-vm1-new:~$hadoopdfsadmin-reportDEPRECATED:Useofthisscripttoexecutehdfscommandisdeprecated.Insteadusethehdfscommandforit.15/12/1322:25:49WARNutil.NativeCodeLoader:Unabletoloadnative-hadooplibraryforyourplat

hadoop - fs.checkpoint.dir 和 dfs.name.dir 有什么区别?

主要是dfs.name.dir属性是用来存储namenode的fsimage到特定位置备份的,fs.checkpoint.dir属性是fsimage合并的位置。这让我有点困惑。任何人都可以详细解释我。 最佳答案 dfs.name.dir是namenode在磁盘中存放fsimage和editlogs的地方。这是一个强制性的位置。没有这个位置,hadoop集群将无法启动。这将位于名称节点主机中。fs.checkpoint.dir是本地文件系统上的目录,DFS辅助名称节点应在其中存储要合并的临时图像。如果这是一个以逗号分隔的目录列表,则图

hadoop - 'hdfs dfs -ls' 和 'hdfs dfs -ls/' 之间的区别

为什么hdfsdfs-ls指向与hdfsdfs-ls/不同的位置?从下面的截图中可以清楚地看到两个命令给出不同的输出:以上输出的主要原因是什么? 最佳答案 来自官方源码org.apache.hadoop.fs.shell.Ls.java.只需搜索DESCRIPTION字词。它将列出以下语句:-publicstaticfinalStringDESCRIPTION="Listthecontentsthatmatchthespecifiedfilepattern.If"+"pathisnotspecified,thecontentsof/

hadoop - 启用 dfs.image.compress 时会压缩什么?

Hadoophdfsdocumentation表示此旋钮指定是否应压缩“dfs图像”。那具体指的是什么?存储在hdfs中的输入文件、输出文件(有一个单独的参数)或其他什么? 最佳答案 这里的“dfsimage”是实际dfs的副本,在检查点时创建。当最初创建检查点时,检查点有助于恢复到以前的dfs状态。图像文件包含dfs中存在的所有文件。压缩会尝试使用压缩编解码器将此文件压缩到更小的大小。 关于hadoop-启用dfs.image.compress时会压缩什么?,我们在StackOverf