草庐IT

MAPREDUCE

全部标签

hadoop - HBase mapReduce TableOutputFormat如何使用Flush和WAL

因此,当从使用TableOutputFormat的MapReduce作业写入HBase时,它​​多久写入一次HBase。我不认为它会为每一行执行一个put命令。在MapReduce中使用时如何控制AutoFlush和WriteAheadLog(WAL)? 最佳答案 TableOutputFormat禁用AutoFlush并使用在hbase.client.write.buffer指定的写入缓冲区(默认为2MB),一旦缓冲区已满,它会自动刷新到HBase。您可以通过将属性添加到作业配置来更改它:config.set("hbase.cli

url - 使用 mapreduce 从日志文件中提取命中计数

我正在尝试在Hadoopmap-reduce中编写以下代码。我有一个日志文件,其中包含IP地址和相应IP打开的url。具体如下:192.168.72.224www.m4maths.com192.168.72.177www.yahoo.com192.168.72.177www.yahoo.com192.168.72.224www.facebook.com192.168.72.224www.gmail.com192.168.72.177www.facebook.com192.168.198.92www.google.com192.168.198.92www.yahoo.com192.168

azure - 如何通过门户管理 HDInsight 集群?

我最近开始使用WindowsAzure和HDInsight,以完成一些MapReduce工作。我想知道的是,是否可以在不需要时通过Azure管理门户暂停或停止正在运行的集群?我尝试了停止或暂停的选项,但找不到任何选项。任何帮助,将不胜感激。 最佳答案 HDInsight不支持除Running和Stopped之外的其他状态,这意味着无法将集群设置为暂停或Idle状态,这与其他云提供商不同。您可以找到添加此功能的请求here,如果你感兴趣。回答您的其他问题,通过管理门户管理HDInsight非常简单。有一个完整的界面部分专门用于集群的管

scala - Spark/Scala 拆分

我有这个代码:rdd.map(_.split("-")).filter(row=>{...})当我执行row.length时:This-is-a-test----on-split--这是一个测试--------输出分别是9和4。如果它为空,则不计算尾随分隔字符。如果我希望两个输出均为10,这里的解决方法是什么? 最佳答案 您可以通过将-1作为限制参数传递给split来完成您想要的操作,如下所示:rdd.map(_.split("-",-1)).filter(row=>{...})顺便说一句,预期结果是11,而不是10(因为如果您想保

hadoop - 将参数 "args"从主类传递给 Map 类

示例:jar类arg1arg2arg3arg1用于输入格式,arg2用于输出格式,如下所示:publicstaticvoidmain(String[]args){FileInputFormat.addInputPath(conf,newPath(args[0]));FileOutputFormat.setOutputPath(conf,newPath(args[1]));....}我需要发送arg3"args[2]"到map类......publicclassJoinMultiMapextendsMapReduceBaseimplementsMapper{ineedarg3her}

java - 如何在 MapReduce 作业开始使用 JobControl 之前执行操作

我有JobControl控制n个作业链。for(inti=0;i我只想在每个作业开始之前清理输出目录;但在作业初始化时不得清除目录。我目前的解决方案是将清除代码放入映射阶段,这会大大减慢执行速度。publicvoidmap(LongWritablekey,Textvalue,Contextcontext)throwsIOException,InterruptedException{FileSystemfs=FileSystem.get(context.getConfiguration());if(fs.exists(newPath(context.getConfiguration().

hadoop - 没有 YARN 的 MapReduce 2

考虑到YARN是运行mapreduce2的更好选择这一事实,但是是否可以在没有YARN的情况下运行MR2?我尝试使用MR2,但它与YARN一起运行。 最佳答案 MRv2实际上是YARN!所以,不,你不能在没有YARN的情况下运行mapreduce2作业!Officialdocumentation:ApacheHadoopNextGenMapReduce(YARN)MapReducehasundergoneacompleteoverhaulinhadoop-0.23andwenowhave,whatwecall,MapReduce2.

hadoop - 我如何拥有多个映射器和缩减器?

我有这段代码,我在其中设置了一个映射器和一个缩减器。我想再包含一个映射器和一个缩减器来完成进一步的工作。问题是我必须将第一个mapreduce作业的输出文件作为下一个mapreduce作业的输入。是否可以这样做?如果是,我该怎么做?publicintrun(String[]args)throwsException{JobConfconf=newJobConf(getConf(),DecisionTreec45.class);conf.setJobName("c4.5");//thekeysarewords(strings)conf.setOutputKeyClass(Text.clas

java - 在 MapReduce 中处理用户输入字符串

我开始使用MapReduce的Hadoop变体,因此对来龙去脉一无所知。我理解它在概念上应该如何运作。我的问题是在我提供的一堆文件中找到特定的搜索字符串。我对这些文件不感兴趣-已排序。但是你会如何征求意见呢?您会在程序的JobConf部分提问吗?如果是这样,我如何将字符串传递到作业中?如果它在map()函数中,您将如何实现它?它不会在每次调用map()函数时只要求搜索字符串吗?下面是主要方法和JobConf()部分,您应该可以了解一下:publicstaticvoidmain(String[]args)throwsIOException{//Thisproducesanoutputfi

hadoop - 如何Hadoop Map Reduce整个文件

我玩过各种流映射减少字数统计示例,其中Hadoop/Hbase似乎采用大文件并在节点之间平均拆分(在换行符处)。然后它将部分文档的每一行提交到我的代码的map部分。我的问题是,当我有很多小的非结构化和半结构化文档时,如何让Hadoop将整个文档提交到我的map代码? 最佳答案 文件拆分由InputFormat.getSplits计算。因此,对于每个输入文件,它都会获得拆分数,并且每个拆分都会提交给映射器。现在基于InputFormatMapper将处理输入拆分。我们有不同类型的输入格式,例如TextInputFormat,它将文本文