草庐IT

input_text

全部标签

java - 复制自本地 : `/user/hduser/input' : No such file or directory

我试图从这个website开始做WordCount教程但遇到了一些问题,我遵循了这个thread中的解决方案.一切都很好,直到我尝试执行产生此错误的hadoopfs-copyFromLocal/user/hduser/inputcopyFromLocal:`/user/hduser/input':Nosuchfileordirectory我试图通过执行hadoopfs-mkdir/user/hduser/input来双重确认是否存在这样的文件,它说mkdir:/user/hduser/输入':文件存在`所以我对哪里出了问题有点困惑。我只想能够执行copyFromLocal函数。When

java - Hadoop input.FileSplit 不能大小写为 mapred.FileSplit

我正在尝试使用以下代码在HadoopMapper中获取文件名:FileSplitfileSplit=(FileSplit)context.getInputSplit();Stringfilename=fileSplit.getPath().getName();我导入的库是:importorg.apache.hadoop.mapred.FileSplit;我得到异常:org.apache.hadoop.mapreduce.lib.input.FileSplitcannotbecasttoorg.apache.hadoop.mapred.FileSplit有人可以帮忙吗?

hadoop - MapReduce默认的Input键是什么?

我正在使用基于hadoop2.6.0的MpaReduce,我想跳过数据文件的前六行,所以我使用if(key.get()在我的map()函数中。但这是不对的。我发现map()的inputkey不是文件行的offset。关键是每行长度的总和。为什么?看起来不像很多书上的字。 最佳答案 Ifyoulookatthecode,它是文件的实际字节偏移量而不是行。如果您想跳过文件的前n行,您可能必须编写自己的输入格式/记录阅读器,或者确保在映射器逻辑ala中保留一个行计数器:intlines=0;publicvoidmap(LongWritab

java - 映射 : expected org. apache.hadoop.io.Text 中的键类型不匹配,收到 org.apache.hadoop.io.IntWritable

我正在尝试在java中运行一个mapreducer,以获取一个逗号分隔的文件,该文件包含有关坠机的AIRLINE的数据。数据包含以下列,还提供了示例数据:passengerid,survived(s=0,d=1),pclass,name,sex,age,sibsp,parch,ticket,fare,cabin,embarked1,0,3,"BraundMr.OwenHarris",male,22,1,0,A/521171,7.25,,S,2,1,1,"CumingsMrs.JohnBradley(FlorenceBriggsThayer)",female,38,1,0,PC17599

hadoop - 错误 terasort.TeraSort : Input path does not exist: maprfs:/user/user01/–DXmx1024m

在通过修改参数运行terasort应用程序时,我收到以下错误。15/05/2421:41:42ERRORterasort.TeraSort:Inputpathdoesnotexist:maprfs:/user/user01/–DXmx1024m我正在运行用于执行慢跑的命令$hadoopjar/opt/mapr/hadoop/hadoop-0.20.2/hadoop-0.20.2-dev-\examples.jarterasort–DXmx1024m–Dmapred.reduce.tasks=2\-Dio.sort.mb=1/user/user01/6/TERA_IN/user/user

python 2.7- raw_input以及否则

raw_input('你在做什么?')A='nothing'如果类型(a):打印'似乎很无聊'else:打印'nice'该代码的含义是,如果一个人用“无”回答RAW_INPUT。它应该打印似乎很无聊。而且,如果一个人写的其他内容,它应该打印好。我是编程的新手,所以请帮助我:)看答案如果我正确理解您的问题,您正在寻找的是:a=raw_input("Whatareyoudoing?")请注意,提示的答案保存在变量“A”中。ifa=='nothing':print'Thatseemsboring'else:print'Nice'注意缩进。另外,我们使用'=='进行比较,'='将值分配给变量。我建议您

hadoop - Oozie 未注册 "mapred.input.dir.recursive"属性

我在使用Oozie时遇到问题。它不会从Oozie工作流中注册mapred.input.dir.recursive属性。这给我带来了问题,因为我的mapred.input.dir包含文件以及包含更多文件的子目录。我广泛地搜索了解决方案,但没有成功找到。有什么想法、意见、建议吗? 最佳答案 mapred.input.dir.recursive已弃用。相反,使用mapreduce.input.fileinputformat.input.dir.recursive 关于hadoop-Oozie未

Hadoop IO 错误 : Type mismatch in key from map : expected org. apache.hadoop.io.Text,收到 RegexMatcher.CustomKey

我收到以下错误:java.lang.Exception:java.io.IOException:Typemismatchinkeyfrommap:expectedorg.apache.hadoop.io.Text,receivedRegexMatcher.CustomKeyatorg.apache.hadoop.mapred.LocalJobRunner$Job.runTasks(LocalJobRunner.java:462)atorg.apache.hadoop.mapred.LocalJobRunner$Job.run(LocalJobRunner.java:522)Caused

mongodb - 带有 $date 的 mongo.input.query 不过滤输入到 hadoop

我有一个分片输入集合,我想在将其发送到我的hadoop集群以进行mapreduce计算之前对其进行过滤。我的$hadoopjar-命令中有这个参数mongo.input.query='{_id.uuid:"device-964693"}'并且有效。输出不会mapreduce任何不满足此查询的数据。但这不起作用:mongo.input.query='{_id.day:{\\$lt:{\\$date:1388620740000}}}'没有数据作为输出产生。1388620740000表示日期WedJan01201423:59:00GMT+0000(GMT)。该设置使用的是hadoop2.2、

hadoop - Hadoop 中的 (key,value) 对总是 ('text' ,1) 吗?

我是Hadoop新手。你能说说(键/值)对吗?值总是一个吗?reduce步骤的输出总是一个(键/值)对吗?如果是,该(键/值)数据将如何进一步使用?请帮帮我。 最佳答案 我猜你问的是由于wordcount导致的(key,values)对的“一个”值Hadoop教程中的示例。所以,答案是否定的,它并不总是“一个”。MapReduce的Hadoop实现通过在整个工作流中传递(键,值)对来工作,从输入到输出:映射步骤:一般来说(还有其他特殊情况,取决于输入格式),映射器逐行处理分配给它们的拆分内的数据;这些行作为(key,value)对传