草庐IT

当我尝试在 YARN 上运行 pi-example 时,Hadoop2.5.2 卡在了 Running Job

我在3台装有UbuntuServer14.04的机器上运行Hadoop2.5.2一个是namenode和resourcemanager,ip是192.168.3.1其他的是运行datanode和nodemanager的slave,ip分别是192.168.3.102和192.168.3.104。我可以毫无错误地运行start-hdfs.sh和start-yarn.sh。HDFS和YARN的网站运行良好,我可以在浏览器上访问这两个网站并查看两个从站的状态。但是当我尝试通过yarnjarhadoop-mapreduce-examples-2.5.2.jarpi14在~/hadoop/sha

hadoop - "Child Error"in Executing stream Job on multi node Hadoop cluster (cloudera distribution CDH3u0 Hadoop 0.20.2)

我在8节点Hadoop集群上工作,我正在尝试使用指定的配置执行一个简单的流作业。hadoopjar/usr/lib/hadoop-0.20/contrib/streaming/hadoop-streaming-0.20.2-cdh3u0.jar\-Dmapred.map.max.tacker.failures=10\-Dmared.map.max.attempts=8\-Dmapred.skip.attempts.to.start.skipping=8\-Dmapred.skip.map.max.skip.records=8\-Dmapred.skip.mode.enabled=tru

sql - Hive: java.lang.OutOfMemoryError: Java heap space and Job running in-process (local Hadoop)

我的设置:运行NixOSLinux的GoogleCloudPlatform中的4节点集群(1个主节点,3个工作节点)。我一直在使用TPC-DS工具包来生成数据和查询都是标准的。在较小的数据集/更简单的查询上,它们工作得很好。我从这里获取的查询:https://github.com/hortonworks/hive-testbench/tree/hdp3/sample-queries-tpcds这是第一个,query1.sql:WITHcustomer_total_returnAS(SELECTsr_customer_skASctr_customer_sk,sr_store_skASct

hadoop - Couchbase/hadoop 连接器 : sqoop job FAILED "Found interface org.apache.hadoop.mapreduce.TaskAttemptContext, but class was expected"

我的配置:CouchBase服务器2.0Sqoop1.4.2(为hadoop版本2.0.0编译)栈HadoopCDH4.1.2我想使用CouchBase/Hadoop连接器(http://www.couchbase.com/develop/connectors/hadoop),但是当我启动导入时出现以下错误:sqoop-import--connecthttp://localhost:8091/pools--tableDUMP13/01/0711:00:34INFOtool.CodeGenTool:Beginningcodegeneration13/01/0711:00:34INFOor

java - MapReduce 新 API Job.getInstance(Configuration, String) 的 Jar 文件

已安装Hadoop2.2。尝试删除已弃用的APIJobjob=newJob(conf,"wordcount");来自Wordcount示例(Hadoop附带)here将已弃用的API替换为编辑:Jobjob=Job.getInstance(conf,"wordcount");编译错误为Job.getInstancecannotberesolvedtoatype.已经导入的Job类(旧API或MR1)似乎没有此方法。哪个jar包含带有Job.getInstance(Configuratio,String)方法的新Job类如何解决?迁移到MapReducev2的示例是否有任何其他更改?

java - Driver 中的 job.setOutputKeyClass 和 setOutputValueClass 与 reducer 的 context.write 方法不匹配,程序仍然运行正常。怎么办?

驱动代码:publicclassWcDriver{publicstaticvoidmain(String[]args)throwsIOException,InterruptedException,ClassNotFoundException{Configurationconf=newConfiguration();Jobjob=newJob(conf,"WcDriver");job.setJarByClass(WcDriver.class);job.setOutputKeyClass(Text.class);job.setOutputValueClass(LongWritable.cl

hadoop - 带有 mapreduce.Job 的 SetNumMapTask

如何使用org.apache.hadoop.mapreduce.Job设置映射任务的数量?该功能似乎不存在...但它存在于org.apacache.hadoop.mapred.JobConf...谢谢! 最佳答案 据我所知,setNumMapTasks不再受支持。这只是对框架的提示(即使在旧API中也是如此),并不保证您只会获得指定数量的map。map创建实际上由您在工作中使用的InputFormat控制。您可以根据需要调整以下属性:ma​​pred.min.split.sizema​​pred.max.split.size由于您处

Python Hadoop 流错误 "ERROR streaming.StreamJob: Job not Successful!"和堆栈跟踪 : ExitCodeException exitCode=134

我正在尝试使用HadoopStreaming在Hadoop集群上运行python脚本以进行情绪分析。我在本地机器上运行的相同脚本正常运行并提供输出。要在本地机器上运行,我使用此命令。$cat/home/MB/analytics/Data/input/*|./new_mapper.py为了在hadoop集群上运行,我使用以下命令$hadoopjar/usr/lib/hadoop-0.20-mapreduce/contrib/streaming/hadoop-streaming-2.5.0-mr1-cdh5.2.0.jar-mapper"python$PWD/new_mapper.py"-

scala - Spark : Executor Lost Failure (After adding groupBy job)

我正在尝试在Yarn客户端上运行Spark作业。我有两个节点,每个节点都有以下配置。我收到“ExecutorLostFailure(执行程序1丢失)”。我已经尝试了大部分Spark调优配置。我已经减少到一个执行器丢失,因为最初我遇到了6个执行器故障。这些是我的配置(我的spark-submit):HADOOP_USER_NAME=hdfsspark-submit--classgenkvs.CreateFieldMappings--masteryarn-client--driver-memory11g--executor-memory11G--total-executor-cores16

hadoop - 亚马逊弹性 map 减少 : Listing job flows in command line tools Issue?

我是Amazon网络服务的新手,我正在尝试使用命令行界面工具在Amazonelasticmapreduce作业上运行作业流。我按照来自aws的开发人员指南的亚马逊开发人员指南中的步骤进行操作。但事情对我来说并不清楚。如果我执行命令./elastic-mapreduce--list列出作业流程。显示以下错误。/home/pdurai/Applications/elastic-mapreduce-cli/amazon/coral/httpdestinationhandler.rb:23:warning:elsewithoutrescueisuseless/usr/local/rbenv/v