草庐IT

作业车

全部标签

java - 从 eclipse 运行 hadoop(Cloudera-2.0.0-cdh4.4.0) 作业时出错?

您好,我正在从eclipse运行hadoopwordcount示例,但出现以下错误:-13/11/2422:17:08DEBUGipc.Client:IPCClient(2010005445)connectiontolocalhost/127.0.0.1:8020fromharindersending#1213/11/2422:17:08DEBUGipc.Client:IPCClient(2010005445)connectiontolocalhost/127.0.0.1:8020fromharindergotvalue#1213/11/2422:17:08DEBUGipc.Proto

运行 Hadoop 作业时出现 java.lang.OutOfMemoryError

我有一个输入文件(大小约为31GB),其中包含消费者对某些产品的评论,我正在尝试对这些产品进行词形还原并找到相应的词条计数。该方法有点类似于Hadoop提供的WordCount示例。我总共有4个类来执行处理:StanfordLemmatizer[包含用于从斯坦福的coreNLP包v3.3.0进行词形还原的好东西]、WordCount[驱动程序]、WordCountMapper[映射器]和WordCountReducer[缩减器]。我已经在原始数据集的一个子集(以MB为单位)上测试了该程序,它运行良好。不幸的是,当我在大小为~31GB的完整数据集上运行作业时,作业失败了。我检查了作业的系

optimization - Hadoop 作业 - 使用我机器中的所有内核

我使用默认配置的hadoop作业->本地文件系统上的本地模式没有使用我系统中的所有内核(16)->通过使用所有内核,我的意思是,我可以在各种实例中看到所有内核的事件。但是,我的CPU使用率[fromtop]从未超过200%,因此我在conf中更改了这些配置。mapred.tasktracker.map.tasks.maximum将其设置为8,mapred.tasktracker.reduce.tasks.maximum也将其设置为8。我的核心使用率仍然低于300%。如何通过使用所有核心从机器获得最大吞吐量?此外,我的文件大小约为1TB。这是作业运行的示例日志。我看到它在运行作业时创建了

java - hadoop 作业因奇怪的异常而失败

错误信息:java.io.IOException:Typemismatchinvaluefrommap:expectedorg.apache.hadoop.io.Text,recievedorg.apache.hadoop.io.LongWritableatorg.apache.hadoop.mapred.MapTask$MapOutputBuffer.collect(MapTask.java:918)atorg.apache.hadoop.mapred.MapTask$OldOutputCollector.collect(MapTask.java:512)atmain.java.co

hadoop - 将 jars 添加到启动 map reduce 作业的代码的类路径中

我正在尝试从实现Tool接口(interface)的应用程序启动mapreduce作业。该应用程序几乎没有做其他事情,例如mapreduce作业的先决条件。此类使用一些第三方库,如何在运行jar时使用以下命令将这些jar添加到类路径:hadoopjar[args]从这里Cloudera'spost我试图将HADOOP_CLASSPATHenvvar设置为第三方jar,但没有成功。上面提到的第三方jar仅由启Action业的类而不是Mapper/Reducer类需要。所以我不需要把它们放在分布式缓存中。当我在$HADOOP_HOME/lib下复制这些我需要的第三方jar时,它可以工作,但

java - 将输入数据动态添加到 Hadoop Map-Reduce 作业?

我能否在运行时将输入文件或输入数据附加到map-reduce作业而不创建竞争条件? 最佳答案 我认为理论上你可以在输入中添加更多文件,只要它:匹配您的FileInputFormat模式发生在InputFormat.getSplits()调用之前,这确实让您在提交作业后的时间很短。关于计算拆分后的竞争条件,请注意附加到现有文件仅在版本0.21.0之后可用。.即使您可以修改您的文件,您的分割点也已经预先计算好了,而且您的新数据很可能不会被映射器获取。不过,我怀疑这会导致您的流程崩溃。您可以尝试的是禁用文件内的拆分(即为每个文件分配一个映

hadoop - 作业跟踪器和名称节点不以 start-all.sh 开头

我正在尝试安装hadoop单节点,但它无法正常工作。当我执行start-all.shnamenode和jobtracker时,不要启动。您是否在我的文件中看到什么可能是错误的,所以我得到了这个结果?hadoopjps命令的结果:14878日元14823任务追踪器14605二级名称节点14456数据节点start-all.sh命令的结果:admin@vm-sgd10:/usr/local$start-all.shstartingnamenode,loggingto/usr/local/hadoop/libexec/../logs/hadoop-admin-namenode-vm-10.v

java - 打开作业 jar : file in hdfs 时出错

我一直在尝试修复这个问题,但不确定我在这里犯了什么错误!你能帮我解决这个问题吗?非常感谢!我的程序:打包hadoopbook;importjava.io.IOException;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;importorg.apache.hadoop.io.LongWritable;importorg.apache.hadoop.io.Text;importorg.apache.hado

java - 如何在 MapReduce 作业开始使用 JobControl 之前执行操作

我有JobControl控制n个作业链。for(inti=0;i我只想在每个作业开始之前清理输出目录;但在作业初始化时不得清除目录。我目前的解决方案是将清除代码放入映射阶段,这会大大减慢执行速度。publicvoidmap(LongWritablekey,Textvalue,Contextcontext)throwsIOException,InterruptedException{FileSystemfs=FileSystem.get(context.getConfiguration());if(fs.exists(newPath(context.getConfiguration().

java - 如何将 Hadoop MapReduce 作业限制在一定数量的节点上?

所以,基本上我有一个包含4个数据节点的系统。但是,为了检查我的hadoop应用程序的可伸缩性,我想用1、2和4个节点对其进行测试。那么,如何将hadoop使用的节点数限制为1或2个。我使用的是hadoop2.5.1,我没有系统的管理员权限。此外,如何控制hadoop用于节点的内核数? 最佳答案 您需要管理员权限才能执行所有操作如何将hadoop使用的节点数限制为1或2个。Decommission2-3个节点如何控制hadoop为节点使用的内核数在yarn-site.xml中设置以下配置,为每个节点分配8个vcoreyarn.node