草庐IT

hadoop fs -lsr hdfs ://localhost:9000 not working

我刚开始学习hdfs,并且在centosbox上设置了单节点hadoop(版本2.2.0)。在start-all命令之后,我正在尝试运行一些hdfs命令,但下面提到的命令不起作用。bin/hadoopfs-lsrhdfs://localhost:9000/tmp/hadoop-root/dfs/name当这个命令起作用时bin/hadoopfs-lsrfile:///tmp/hadoop-root/dfs/name这是我的core-site.xml文件fs.default.namehdfs://localhost:9000mapred-site.xml文件mapred.job.trac

linux - 看不到 hdfs,Hadoop shell 命令 hadoop fs -ls 给出错误无法访问

我遇到了一个奇怪的问题,我无法在我的hdfs中看到文件。每当我执行hadoopfs-ls时,我都会收到以下错误:hadoopfs-lsWarning:$HADOOP_HOMEisdeprecated.ls:Cannotaccess.:Nosuchfileordirectory.我可以使用诸如copyfromlocal等命令,但仍然无法在hdfs中看到它们,由于这个问题也无法运行pig脚本。如果我执行hadoopfs-ls/*我得到以下错误:hadoopfs-ls/*Warning:$HADOOP_HOMEisdeprecated.Found1itemsdrwxr-xr-x-hduser

file - hadoop fs -text vs hadoop fs -cat vs hadoop fs -get

我相信以下所有命令都可用于将hdfs文件复制到本地文件系统。有什么区别/情境利弊。(这里是Hadoop新手)。hadoopfs-text/hdfs_dir/*>>/local_dir/localfile.txthadoopfs-cat/hdfs_dir/*>>/local_dir/localfile.txthadoopfs-get/hdfs_dir/*>>/local_dir/我的经验法则是避免对大文件使用“text”和“cat”。(我用它来复制我的MR作业的输出,这在我的用例中通常较小)。 最佳答案 -cat和-text之间的主要

hadoop - 典型的 Hadoop 架构和 MapR 架构之间的区别

我知道Hadoop是基于Master/Slave架构的HDFS与NameNodes和DataNodes一起工作和MapReduce与jobtrackers和Tasktrackers一起工作但是我在MapR上找不到所有这些服务,我发现它有自己的架构和自己的服务我有点困惑,谁能告诉我只使用Hadoop和使用MapR有什么区别! 最佳答案 您必须引用Hadoop2.x最新架构,因为YARN(YetAnotherResourceNegotiator)和HighAvailability已被引入2.x版本。作业跟踪器和任务跟踪器替换为资源管理器

hadoop fs –put 未知命令

使用以下命令创建了一个文件夹[LOAN_DATA]hadoopfs-mkdirhdfs://masterNode:8020/tmp/hadoop-hadoop/dfs/LOAN_DATA现在使用WebUI,当我列出目录/tmp/hadoop-hadoop/dfs的内容时,它显示LOAN_DATA。但是当我想使用put或copyFromLocal将一些数据从TXT文件存储到LOAN_DATA目录时,我得到了put:未知命令使用的命令:hadoopfs–put'/home/hadoop/my_work/Acquisition_2012Q1.txt'hdfs://masterNode:802

java - HBase - 无法抑制 fs 关闭 Hook

我试图通过运行HMaster类在IDEA中启动HBase,但出现此错误:java.lang.RuntimeException:Failedsuppressionoffsshutdownhook:Thread[Thread-8,5,main]atorg.apache.hadoop.hbase.regionserver.ShutdownHook.suppressHdfsShutdownHook(ShutdownHook.java:196)atorg.apache.hadoop.hbase.regionserver.ShutdownHook.install(ShutdownHook.java

hadoop - Datanode 重新启动 Hadoop fs -put 以获取大量数据(30 GB)

我有一个包含3个节点的hadoop集群。1个主人和2个奴隶。他们每个人都有24GB的内存。当我执行hadoopfs-put将数据从本地文件系统传输到hdfsdome数据被传输然后我得到一个异常12/11/0619:01:39WARNhdfs.DFSClient:DFSOutputStreamResponseProcessorexceptionforblockblk_-2646313249080465541_1002java.net.SocketTimeoutException:603000millistimeoutwhilewaitingforchanneltobereadyforre

hadoop - 与 FS 的连接不良

我正在使用ClouderaHadoop(cdh3u1),但遇到以下错误消息:[root@paulconf.class]#sudo-uhdfshadoopfs-mkdir/user/training12/09/1607:40:26INFOipc.Client:Retryingconnecttoserver:peter/192.168.1.100:8020.Alreadytried0time(s).12/09/1607:40:27INFOipc.Client:Retryingconnecttoserver:peter/192.168.1.100:8020.Alreadytried1time

hadoop - MapR 客户端不执行 hadoop - Windows

我有一个AmazonWindowsVM,我在其中安装了MapR-Client2.1.2,以及另一个等待作业执行的MapR集群。我设置了MAPR_HOME在C:\opt\mapr,当我执行hadoopfs-ls/来自C:\opt\mapr\hadoop\hadoop-0.20.2\bin我得到:Thesystemcannotfindthepathspecified我还配置了MapR-Client和server\configure.bat-c-C:7222在config\mapr-clusters.conf我可以看到:my.cluster.com:7222我还确保我能够从Windows进行

java - Hadoop/Eclipse - 线程 "main"java.lang.NoClassDefFoundError : org/apache/hadoop/fs/FileSystem 中的异常

我正在尝试运行来自ManningPublishing的ChuckLam的HadoopinAction中的PutMerge程序。它应该很简单,但我在尝试运行它时遇到了很多问题,而且我遇到了这个我无法弄清楚的错误。同时,我正在运行一个基本的wordcount程序,没有任何问题。我现在已经花了大约3天时间。我已经对此进行了所有可能的研究,但我迷路了。你有什么想法吗?程序:importjava.io.IOException;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.FSDataInputStrea