草庐IT

hadoop - 从SVN “no namenode to stop”通过Hadoop替换mapred/hdfs/common jar构建后

我从中checkout源代码http://svn.apache.org/repos/asf/hadoop/commonhttp://svn.apache.org/repos/asf/hadoop/hdfshttp://svn.apache.org/repos/asf/hadoop/mapreduce并得到hadoop-mapred-0.23.0-SNAPSHOT.jarhadoop-hdfs-0.23.0-SNAPSHOT.jarhadoop-common-0.23.0-SNAPSHOT.jar但是我无法使用这些jar启动all.sh...Jobtracker和tasktracker启

hadoop - 如何为 Hadoop 启动 mapred?

我在三台虚拟CentOS6.2上搭建了Hadoop测试环境。一切顺利,但start-mapred。我总是得到的是:2012-02-0319:54:17,592警告org.apache.hadoop.mapred.JobTracker:无法初始化恢复管理器。org.apache.hadoop.ipc.RemoteException:java.io.IOException:文件/home/hadoop/devx/var/tmp/mapred/system/jobtracker.info可以只被复制到0个节点,而不是1并且我检查了名称节点和数据节点上的nameSpaceID,它们是相同的。我

hadoop - 有人在 hadoop 流媒体作业中使用过 mapred.job.tracker=local 吗?

在过去的几周里,我们每天都使用hadoopstreaming来计算一些报告。最近我们对我们的程序进行了更改,如果输入大小小于10MB,我们将在JobConf中设置mapred.job.tracker=local,然后作业将在本地运行。但是昨晚,许多作业都失败了,runningJob.getJobState()返回了状态3。我不知道为什么,stderr里什么也没有。我无法用谷歌搜索与此问题相关的任何内容。所以我想知道我是否应该在生产模式下使用mapred.job.tracker=local?也许它只是hadoop提供的开发中的调试解决方案。有人知道吗?任何信息,任何信息,谢谢。

windows - mapred.JobClient : Error reading task output http:. .. 在 Windows 操作系统上从 Cygwin 运行 hadoop 时

我在Windows上运行来自Cygwin的“MahoutinAction”一书中的“从文档生成向量”样本。Hadoop仅在本地计算机上启动。下面是我的运行命令:$bin/mahoutseq2sparse-ireuters-seqfiles/-oreuters-vectors-ow但是下面显示java.io.IOException,有谁知道这个问题是什么原因造成的?提前致谢!Runningonhadoop,usingHADOOP_HOME=my_hadoop_pathHADOOP_CONF_DIR=my_hadoop_conf_path13/05/1318:38:03WARNdriver

python - 使用 python 流解析从 org.apache.avro.mapred.AvroAsTextInputFormat 生成的 json 字符串

在使用python读取avro数据文件的hadoop流中,我使用的是输入格式,文档说输入键是JSON中的字符串表示。-inputformatorg.apache.avro.mapred.AvroAsTextInputFormat映射器将其作为行输入获取:line="{u'three':u'3',u'two':u'2',u'one':u'1'}"我如何解析这个字符串,以获得键值对? 最佳答案 我想这就是你需要的:>>>line="{u'three':u'3',u'two':u'2',u'one':u'1'}">>>line"{u'th

hadoop - MapR 配置单元未检测到显示无效 URL 错误的 maprfs :///scheme,

我将mapRHive1.2与Hadoop2.7.0结合使用。尝试运行以下命令时:addjarmaprfs:///user/john/customSerde.jar我收到以下错误:invalidurl:maprfs:///user/john/customSerde.jar,expecting(file|hdfs|ivy)asurlscheme.Queryreturnednon-zerocode:1,cause:invalidurl:maprfs:///user/john/customSerde.jar,expecting(file|hdfs|ivy)asurlscheme.它根本无法检测

尽管设置了 mapred.job.tracker 值,Hadoop 1.2.1 仍以本地模式运行

我正在尝试将giraph作业提交到hadoop1.2.1集群。该集群有一个名称节点主节点、一个映射归约主节点和四个从节点。作业失败,出现以下异常:java.util.concurrent.ExecutionException:java.lang.IllegalStateException:checkLocalJobRunnerConfiguration:使用LocalJobRunner时,必须只有一个worker,因为一次只有1个任务!但是,这是我的mapred-site.xml文件:mapred.job.trackerjob.tracker.private.ip:9001mapred

hadoop - Impala 扫描 MapR-FS 慢

我最近在3节点MapR集群上安装了Impala。当我运行一个简单的查询时。性能不如Impala+HDFS。这是查询:SELECT*FROMft_test,ft_waferWHEREft_test_parquet.id=ft_wafer_parquet.idandmonth=1andday=8andparam=2913;大约用了3秒。但是当使用相同的查询但使用HDFS时。30Gb的表大小需要不到1秒的时间。这是查询配置文件:QueryRuntimeProfile:Query(id=dc4c084615fbf9bb:4261466f00000000):Summary:SessionID:5

hadoop - 未找到 MapR maprcli 命令

我已经安装了mapr-client,mapr-httpfs并且我已经运行了下面的命令:./configure.sh-Nmy.cluster.com-c-secure-C192.168.145.121:7222-HS192.168.145.122结果是:create/opt/mapr/conf/conf.oldConfiguringHadoop-2.7.0at/opt/mapr/hadoop/hadoop-2.7.0DoneconfiguringHadoopCLDBnodelist:192.168.145.121:7222Zookeepernodelist: ExternalZookee

rest - 通过 REST API [MapR 6.1/Hadoop-2.7] 从 Yarn 查询节点标签拓扑

有一个Java和CLI接口(interface)可以查询YarnRM的节点到节点标签(和反向)映射。有没有办法通过REST-API来做到这一点?最初的RM-API搜索显示只有基于节点标签的作业提交是一个选项。遗憾的是,这实际上在MapR-Hadoop(截至6/6/19的6.1)中被破坏了,所以我的代码必须通过实现正确的调度本身来解决这个问题。这可以使用YarnClientJavaAPI(几乎没有-这里还有更多损坏的API)。但由于我想同时针对不同的资源管理器安排作业,在防火墙后面,REST-API是实现此目的最引人注目的选择,而YarnClientAPI的RPC后端不容易传输。我目前最