草庐IT

confirm_input

全部标签

java - Hadoop input.FileSplit 不能大小写为 mapred.FileSplit

我正在尝试使用以下代码在HadoopMapper中获取文件名:FileSplitfileSplit=(FileSplit)context.getInputSplit();Stringfilename=fileSplit.getPath().getName();我导入的库是:importorg.apache.hadoop.mapred.FileSplit;我得到异常:org.apache.hadoop.mapreduce.lib.input.FileSplitcannotbecasttoorg.apache.hadoop.mapred.FileSplit有人可以帮忙吗?

hadoop - MapReduce默认的Input键是什么?

我正在使用基于hadoop2.6.0的MpaReduce,我想跳过数据文件的前六行,所以我使用if(key.get()在我的map()函数中。但这是不对的。我发现map()的inputkey不是文件行的offset。关键是每行长度的总和。为什么?看起来不像很多书上的字。 最佳答案 Ifyoulookatthecode,它是文件的实际字节偏移量而不是行。如果您想跳过文件的前n行,您可能必须编写自己的输入格式/记录阅读器,或者确保在映射器逻辑ala中保留一个行计数器:intlines=0;publicvoidmap(LongWritab

hadoop - 错误 terasort.TeraSort : Input path does not exist: maprfs:/user/user01/–DXmx1024m

在通过修改参数运行terasort应用程序时,我收到以下错误。15/05/2421:41:42ERRORterasort.TeraSort:Inputpathdoesnotexist:maprfs:/user/user01/–DXmx1024m我正在运行用于执行慢跑的命令$hadoopjar/opt/mapr/hadoop/hadoop-0.20.2/hadoop-0.20.2-dev-\examples.jarterasort–DXmx1024m–Dmapred.reduce.tasks=2\-Dio.sort.mb=1/user/user01/6/TERA_IN/user/user

python 2.7- raw_input以及否则

raw_input('你在做什么?')A='nothing'如果类型(a):打印'似乎很无聊'else:打印'nice'该代码的含义是,如果一个人用“无”回答RAW_INPUT。它应该打印似乎很无聊。而且,如果一个人写的其他内容,它应该打印好。我是编程的新手,所以请帮助我:)看答案如果我正确理解您的问题,您正在寻找的是:a=raw_input("Whatareyoudoing?")请注意,提示的答案保存在变量“A”中。ifa=='nothing':print'Thatseemsboring'else:print'Nice'注意缩进。另外,我们使用'=='进行比较,'='将值分配给变量。我建议您

hadoop - Oozie 未注册 "mapred.input.dir.recursive"属性

我在使用Oozie时遇到问题。它不会从Oozie工作流中注册mapred.input.dir.recursive属性。这给我带来了问题,因为我的mapred.input.dir包含文件以及包含更多文件的子目录。我广泛地搜索了解决方案,但没有成功找到。有什么想法、意见、建议吗? 最佳答案 mapred.input.dir.recursive已弃用。相反,使用mapreduce.input.fileinputformat.input.dir.recursive 关于hadoop-Oozie未

mongodb - 带有 $date 的 mongo.input.query 不过滤输入到 hadoop

我有一个分片输入集合,我想在将其发送到我的hadoop集群以进行mapreduce计算之前对其进行过滤。我的$hadoopjar-命令中有这个参数mongo.input.query='{_id.uuid:"device-964693"}'并且有效。输出不会mapreduce任何不满足此查询的数据。但这不起作用:mongo.input.query='{_id.day:{\\$lt:{\\$date:1388620740000}}}'没有数据作为输出产生。1388620740000表示日期WedJan01201423:59:00GMT+0000(GMT)。该设置使用的是hadoop2.2、

hadoop - Input Split 大小是常量还是取决于逻辑记录?

Hadoop权威指南说:WhenyouhaveMinimumsplitsize1,MaximumsplitsizeLong.MAX_VALUE,Blocksize64MBthentheSplitsizeis64MB.TextInputFormat的逻辑记录是行。由于每行长度不同,我们如何才能将大小拆分为恰好64MB? 最佳答案 HDFSblock是字节序列。他们不知道线条或任何其他结构。所以你可能有一个只有一个block(当然大小为64MB)的分割,在一行的中间结束(即不包括整个最后一行)。当您使用TextInputFormat读取

Hadoop 映射器 : Appropriate input files size?

我的集群HDFSblock大小为64MB。我有包含100个纯文本文件的目录,每个文件的大小为100MB。作业的InputFormat是TextInputFormat。将运行多少个映射器?我在HadoopDeveloper考试中看到了这个问题。答案是100。其他三个答案选项是64、640、200。但我不确定100是怎么来的,或者答案是错误的。请指导。提前致谢。 最佳答案 我同意你的判断,这似乎是错误的当然除非有更多的考试问题没有发布:这些“纯”文本文件是否经过gzip压缩-在这种情况下它们不可拆分?)簇分割大小可能是64MB,但输入文

Hadoop MapReduce : Custom Input Format

我有一个文件,其中包含文本和“^”之间的数据:一些文字^在这里^还有一些^更多到这里我正在编写自定义输入格式以使用“^”字符分隔行。即映射器的输出应该是这样的:一些文字去这里还有一些更多内容在这里我编写了一个扩展FileInputFormat的自定义输入格式,还编写了一个扩展RecordReader的自定义记录阅读器。下面给出了我的自定义记录阅读器的代码。我不知道如何处理这段代码。在WHILE循环部分使用nextKeyValue()方法时遇到问题。我应该如何从拆分中读取数据并生成自定义键值?我正在使用所有新的mapreduce包而不是旧的mapred包。publicclassMyRec

java - Hadoop MapReduce : Read a file and use it as input to filter other files

我想编写一个hadoop应用程序,它将一个文件和一个包含多个文件的输入文件夹作为输入。单个文件包含需要从文件夹中的其他文件中选择和提取其记录的key。我怎样才能做到这一点?顺便说一句,我有一个正在运行的hadoopmapreduce应用程序,它将文件夹路径作为输入,进行处理并将结果写到不同的文件夹中。我对如何使用文件获取需要从特定目录中的其他文件中选择和提取的key感到困惑。包含key的文件是一个大文件,因此不能直接放入主存中。我该怎么做?谢谢! 最佳答案 如果键的数量太多而无法放入内存,则考虑将键集加载到布隆过滤器(大小合适以产生