草庐IT

java - mapper执行的判断

定义映射器的帮助是否已执行,如果未执行,可能是出于什么原因。我将读取方式的输出从数据库写入到执行映射器的本地文件系统的文本文件。这里我给个代码packageorg.myorg;importjava.io.*;importjava.util.*;importjava.sql.Connection;importjava.sql.DriverManager;importjava.sql.ResultSet;importjava.sql.SQLException;importjava.sql.Statement;importjava.util.logging.Level;importorg.a

hadoop - 如何在 mapper 或 reducer 中运行外部程序,将 HDFS 文件作为输入并将输出文件存储在 HDFS 中?

我有一个将文件作为输入并给出输出文件的外部程序//forexampleinputfile:IN_FILEoutputfile:OUT_FILE//RunExternalprogram./vx${OUT_FILE}我想要HDFS中的输入和输出文件我有8个节点的集群。我有8个输入文件,每个文件有1行//1inputfile:1.txt1:0,0,0//2inputfile:2.txt2:0,0,128//3inputfile:3.txt3:0,128,0//5inputfile:4.txt4:0,128,128//5inputfile:5.txt5:128,0,0//6inputfile:

hadoop - 类似于 Mapper setup() 的 Hive setup()-like 功能?

我想用Hive替换Hadoop作业。我的挑战是在Hadoop中,我正在使用setup()通过从分布式缓存中读取引用数据(兴趣点)来构建kdtree。然后我在map()中使用kdtree来评估目标数据与kdtree的距离。在Hive中,我想使用带有evaluate()方法的udf来确定距离,但我不知道如何使用引用数据设置kdtree。这可能吗? 最佳答案 我可能没有完整的答案,所以我只是提出一些可能有帮助的想法。您可以使用ADDFILE...将文件添加到hive中的分布式缓存Hive11+(我认为)应该允许您访问GenericUDF.

java - Hadoop Mapper 中未调用设置方法

我运行一系列HadoopMapper/Reducers并获得电影ID列表。我使用MovieData文件来显示基于这些ID的电影名称。我正在使用如下的Mapper类。我看到setUp方法没有被调用,因为我没有看到print语句,而且当我尝试使用在load方法中加载的这个HashMap时,我也得到了一个Null异常。以下是代码。感谢任何指点。importjava.io.BufferedReader;importjava.io.FileNotFoundException;importjava.io.FileReader;importjava.io.IOException;importjava

java - Hadoop Mapper 填充了 MapOutputBuffer 对象,有没有更好的方法来跳过坏键?

我正在从事一个mapreduce项目,我无法事先保证我的映射器将始终获得可用的键值对。我尝试用这样的trycatchblock围绕相关代码publicvoidmap(LongWritableKey,Textvalues,Contextcontext)throwsIOException,InterruptedException{try{//Attemptprocesscontext.write(HKey,HValue);}}catch(Exceptione){//wasgiveninvalidvalue,dropitandmoveoncontext.nextKeyValue();e.pr

hadoop cp vs streaming with/bin/cat 作为 mapper 和 reducer

我是Hadoop的新手,如果/bin/cat用于mapper和reducer,我有一个关于hadoop复制(cp)与hadoop流的非常基本的问题。hadoop-输入-输出-mapper/bin/cat-reducer/bin/cat我相信上面的命令会复制文件(它与hadoopcp有什么不同?)或者如果我的理解有误请纠正我。 最佳答案 他们做同样的事情,但方式不同:hadoopcp将只调用JAVAHDFSAPI并将副本执行到另一个指定位置,这比流解决方案快得多。另一方面,hadoopstreaming(请参阅下面的示例命令)将启动m

java - streaming jar 找不到 HDFS 中的 Mapper 文件

我目前正在尝试让本地版本的Hadoop运行,但我有点卡住了。我使用以下教程进行设置:http://glebche.appspot.com/static/hadoop-ecosystem/hadoop-hive-tutorial.html现在,我想使用本教程执行一个简单的Mapreduce:http://www.michael-noll.com/tutorials/writing-an-hadoop-mapreduce-program-in-python/但是,我似乎对HDFS有一些问题,因为当我想运行以下命令时::libexecme$hadoopjar./share/hadoop/to

Python 映射减少 : Empty file from mapper

join2_mapper.py#!/usr/bin/envpythonimportsysshows=[]forlineinsys.stdin:line=line.strip()key_value=line.split(',')ifkey_value[1]=='ABC':ifkey_value[1]notinshows:shows.append(key_value[0])ifkey_value[1].isdigit()and(key_value[0]inshows):print('{0}\t{1}'.format(key_value[0],key_value[1]))样本i/pHourl

java - MapReduce 设计模式中的 Mapper 类和 Reducer 类

我是MapReduce的新手,我对这段代码中Mapper类和Reducer类的设计有一些疑问我熟悉MapReduce中的MapSideJoining,我了解到:publicstaticclassCustsMapperextendsMapper{publicvoidmap(Objectkey,Textvalue,Contextcontext)throwsIOException,InterruptedException{在这里,在上面的代码片段中我了解到我们将类扩展到Mapper类和作为Object是一把key,Text是一个值,因此map方法将此键值作为context的输入对象在这里作为

hadoop - 为 hadoop 设计 "mapper"和 "reducer"函数的功能?

我正在尝试为Hadoop设计映射器和缩减器。我是Hadoop的新手,我对映射器和缩减器应该如何为我的特定应用程序工作感到有点困惑。我的映射器的输入是一个大的有向图的连通性。它是一个2列输入,其中每一行都是一个单独的边缘连接。第一列是起始节点ID,第二列是每条边的结束节点ID。我正在尝试将每个起始节点ID的邻居数输出到一个2列文本文件中,其中第一列按起始节点ID递增的顺序排序。我的问题是:(1)输入已经设置好,每一行都是一个键值对,其中键是起始节点id,值是结束节点id。映射器是否只是简单地读入每一行并将其写出?这似乎是多余的。(2)排序是在mapper和reducer之间进行,还是排序