草庐IT

MAPREDUCE

全部标签

hadoop - Hadoop 中键的数量限制是多少?

我彻底搜索了答案,但是我仍然很困惑Hadoop框架中键数或reducetask的限制。它是整数还是可以是任何值? 最佳答案 HadoopMapReduce在Key-Value对模式下工作,键可以是任何东西,唯一的标准是键类必须实现org.apache.hadoop.io.WritableComparable接口(interface)和值类必须是org.apache.hadoop.io.Writable接口(interface)的实现 关于hadoop-Hadoop中键的数量限制是多少?,

java - Hadoop facebook 共同的 friend 使用 mapreduce

我在hadoop(Java版本)中尝试使用mapreduce程序,从json文件中查找共同好友列表。json文件内容具有以下模式:{"name":"abc","id":123}[{"name":"xyz","id":124},{"name":"def","id":125},{"name":"cxf","id":155}]{"name":"cxf","id":155}[{"name":"xyz","id":124},{"name":"abc","id":123},{"name":"yyy","id":129}]模式解释如下:friendjson选项卡由相关friendjson数组分隔因此

hadoop - MapReduce默认的Input键是什么?

我正在使用基于hadoop2.6.0的MpaReduce,我想跳过数据文件的前六行,所以我使用if(key.get()在我的map()函数中。但这是不对的。我发现map()的inputkey不是文件行的offset。关键是每行长度的总和。为什么?看起来不像很多书上的字。 最佳答案 Ifyoulookatthecode,它是文件的实际字节偏移量而不是行。如果您想跳过文件的前n行,您可能必须编写自己的输入格式/记录阅读器,或者确保在映射器逻辑ala中保留一个行计数器:intlines=0;publicvoidmap(LongWritab

java - 通过 HFile 将数据加载到 HBase 不工作

我写了一个映射器通过HFile将数据从磁盘加载到HBase,程序运行成功,但是我的HBase表中没有加载数据,请问有什么想法吗?这是我的java程序:protectedvoidwriteToHBaseViaHFile()throwsException{try{System.out.println("Intry...");Configurationconf=HBaseConfiguration.create();conf.set("hbase.zookeeper.quorum","XXXX");Connectionconnection=ConnectionFactory.createCo

Hadoop MapReduce 无法连接到 ResourceManager

我正在尝试使用单节点集群(伪分布式)设置Hadoop并使用theapacheguide这样做。现在我正在尝试运行MapReduce作业并使用它提供的示例bin/hadoopjarshare/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.0-alpha3.jargrepinputoutput'dfs[a-z]+'hadoop@hadoop:/usr/local/hadoop$bin/hadoopjarshare/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.0-alpha3.jargrepin

java - 在 org.apache.hadoop.mapred.MapTask$NewOutputCollector 关闭期间忽略异常

我创建了一个hadoop自定义可写对象,如下所示publicclassResultTypeimplementsWritable{privateTextxxxx;privateTextyyyy;privateTextzzzz;publicResultType(){}publicResultType(Textxxxx,Textyyyy,Textzzzz){this.xxxx=xxxx;this.yyyy=yyyy;this.zzzz=zzzz;}publicTextgetxxxx(){returnthis.xxxx;}publicTextgetyyyy(){returnthis.yyyy;

hadoop - 抑制命令行输出 hadoop fs 命令

我正在使用Python程序运行hadoopmapreduce作业,该程序创建不同的输入路径作为mapreduce作业的参数。在将这些输入路径传递到mapreduce之前,我目前正在使用以下命令检查hadoopfs路径是否存在:hadoopfs-test-e'filename'然后我的Python程序与命令行通信并确定文件是否存在(当文件存在时-test返回0,否则返回一个大于1的整数)。由于Python程序正在检查路径是否存在并将所有不存在的路径输出到单独的.txt文档,因此我不需要知道哪些路径不存在作为命令行警告。我想知道如何抑制(或忽略)自动hadoopfs输出:test:'fil

java - 如何为 Mapreduce 设计键值对以找到集合中的最大值?

我是MapReduce程序员的初学者。你能帮我设计以下问题的键值对吗?问题陈述-找到最大值并将其与key一起打印输入:KeyValueABC10TCA13RTY23FTY45左侧列中的键将是唯一的。不允许重复。输出:FTY45由于45是所有值中的最大值,因此它必须与key一起打印。你能帮我设计map()和reduce()函数吗?这两个函数的键值对是什么? 最佳答案 在mapper中,记住最大数classMapper{VmaxV;KmaxK;map(K,V,context){if(V>maxV){maxV=V;maxK=K;}}cle

hadoop - Apache HIVE 中的表定义问题

以下是我推送到名为temp_stat的Hive表中的数据集:COUNTRYCITYTEMP-----------------------------------USArizona51.7USCalifornia56.7USBullheadCity51.1IndiaJaisalmer42.4LibyaAziziya57.8IranLutDesert70.7IndiaBanda42.4当我尝试通过select命令查看数据时,我得到以下数据集:US,Arizona,51.7NULLNULLUS,California,56.7NULLNULLUS,BullheadCity,51.1NULLNU

java - MapReduce键值对产生垃圾值的输出值

问题陈述-找到最大值并将其与key一起打印输入:KeyValueABC10TCA13RTY23FTY45左侧列中的键将是唯一的。不允许重复。输出:FTY45由于45是所有值中的最大值,因此它必须与key一起打印。我已经根据此链接中共享的伪代码编写了MapReduce代码HowtodesigntheKeyValuepairsforMapreducetofindthemaximumvalueinaset?map-importjava.io.IOException;importjava.util.StringTokenizer;importorg.apache.hadoop.io.Text;