草庐IT

MAPREDUCE

全部标签

mysql - 线程 "main"java.lang.IncompatibleClassChangeError : Found class org. apache.hadoop.mapreduce.JobContext 中的异常,但接口(interface)是预期的

我正在使用hadoop1.0.3和sqoop1.4.6。我正在尝试将一个表从MySQL导入到hdfs。我收到以下错误:Exceptioninthread"main"java.lang.IncompatibleClassChangeError:Foundclassorg.apache.hadoop.mapreduce.JobContext,butinterfacewasexpectedatorg.apache.sqoop.config.ConfigurationHelper.getJobNumMaps(ConfigurationHelper.java:65)atcom.cloudera.

java - 如何在 MapReduce hadoop 中使用 GeoLite 数据库?

我正在尝试编写一个MapReduce程序,我正在尝试使用GeoLite数据库来解析IP地址的位置。我不确定如何将数据库文件传递给映射器以及要使用哪些依赖项? 最佳答案 在MapReducehadoop中使用GeoLite数据库的一种方法是将数据库作为缓存文件传递,方法是使用:DistributedCache.addCacheFile(inputPath.toUri(),job.getConfiguration());您可以使用缓存文件将.mmdb文件传递​​给每个映射器。我用于使用GeoLite数据库的依赖项是:com.maxmin

hadoop - 如何从 hib 获取文件名

我正在使用hipimapreduce来处理图像。在mapreduce过程中,我无法在imageheader中找到原始文件名。在hipi的imageheader中,我可以添加任何元数据来识别图像吗? 最佳答案 可以通过FloatImage的.getMetaData(key)方法获取图片的文件名。作为mapreduce过程中的示例:publicvoidmap(HipiImageHeaderkey,FloatImagevalue,Contextcontext)throwsIOException,InterruptedException{.

hadoop - 清除hdfs中的/tmp目录

这是否正确,hdfs中的/tmp目录每24小时自动清除一次(默认情况下)? 最佳答案 HDFS/tmp目录主要用作mapreduce运行时的临时存储。Mapreduce工件、中间数据等将保存在此目录下。当mapreduce作业执行完成时,这些文件应该被自动清除。如果删除此临时文件,可能会影响当前正在运行的mapreduce作业。临时文件由pig创建。临时文件删除发生在最后。如果脚本执行已归档或终止,Pig不会处理临时文件删除。然后你必须处理这种情况。您最好在脚本本身中处理此临时文件清理事件。

java - 为什么我在 hadoop 的 mapreduce 中得到 3xx 重复项?

我正在使用hadoop的mapreduce从hdfs中读取一个文件,将其放入一个简单的解析器,然后将该解析器的输出写回到hdfs。我还没有reducetask。我想知道为什么我的输出文件中有大约300个重复项。这是我的map方法。publicvoidmap(LongWritablekey,Textvalue,OutputCollectoroutput,Reporterreporter)throwsIOException{FileSplitfsplit=(FileSplit)reporter.getInputSplit();Mainparser=newMain();StringdatFi

hadoop - 如何按字符解析Hive中的数据&

数据是这样的:fsid=4778&awid=5&url=http%3a%2f%2fwww.abcd.com%2f2-03&pfhid=-356847895&event=Login&Incorrect=Falsefsid=3478&awid=5&url=http%3a%2f%2fwww.abcd.com%2f2-03&pfhid=-356847895&event=Login&userid=10598&Incorrect=False我想看看我一共有多少fsid,一共有多少userid,很多记录都没有userid。我正在使用Hive,也许这不是最好的方法,如果这是一个平面文本文件,我知道如何

hadoop - mapreduce 中的多个文件

我是mapreduce程序的新手。我正在关注TomwhiteHadoop权威指南。我正在做天气数据程序,我想在其中找到每年的最高温度。我有4个1901、1902、1904、1905年的文件,每年一个文件(我每年制作一个文件)。如何在mapreducemaper程序中设置四个输入文件。Hadoop安装在伪分布式模式下。请帮助我。 最佳答案 如果您使用的是hadoop流媒体,请尝试以下操作:$HADOOP_HOME/bin/hadoopjar$HADOOP_HOME/hadoop-streaming.jar\-inputmyInputD

java - Map-Reduce 程序 : Mapper not behaving as expected

friend,我是Map-Reduce的新手,正在尝试一个只执行Mapper的例子;但输出很奇怪,出乎意料。如果我在这里遗漏了什么,请帮助我查找:代码部分:进口:importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.LongWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.mapreduce.Job;importorg.apache.hadoop.mapred

scala - 在我的用例中通过高效使用 Spark 或 pig 组?

我有一千万条记录,是customerID和cityIDpair。有几千万唯一的客户ID,只有几百个唯一的城市ID。我想进行合并以获取针对特定客户ID聚合的所有城市ID,并拉回所有记录。我想在Hadoop上使用Pig按客户ID分组来执行此操作,并想知道这是否是最有效的方法。还想知道在Hadoop中排序是否有开销(我不关心customer1是否在customer2之前,只要为customer1和customer2正确聚合了所有城市)?您认为Spark更好吗?这里是一个输入的例子,CustomerID1City1CustomerID2City2CustomerID3City1Customer

sorting - 在具有 "X"个映射器和 "Y"个缩减器的大型 MapReduce 作业中,排序/洗牌阶段将有多少个不同的复制操作

据我了解会有X+Y个复制操作,不对请指正谢谢 最佳答案 在最坏的情况下,每个reducer可能会从所有映射器中获取记录,假设它的键在所有可用的映射器中都存在。在最坏的情况下,这将为一个reducer提供X个副本。这将导致XY操作而不是X+Y。 关于sorting-在具有"X"个映射器和"Y"个缩减器的大型MapReduce作业中,排序/洗牌阶段将有多少个不同的复制操作,我们在StackOverflow上找到一个类似的问题: https://stackoverf