草庐IT

hamming-numbers

全部标签

Hadoop 数据节点 : why is there a magic "number" for threshold of data blocks?

专家,我们可能会看到我们的hadoop集群中的block数增长。“太多”block会导致数据节点堆需求增加、执行速度下降、GC次数增多等后果。当block数超过某个“阈值”时,​​我们应该引起注意。我见过不同的阈值静态数字,例如200,000或500,000——“神奇”数字。它不应该是节点内存的函数(DataNode的Java堆大小,以字节为单位)吗?其他有趣的相关问题:高block数表示什么?一种。小文件太多?b.产能不足?是(a)还是(b)?如何区分两者?什么是小文件?大小小于block大小(dfs.blocksize)的文件?每个文件是否在磁盘上占用一个新的数据block?还是与

hadoop - Hive 总是给出 "Number of reduce tasks determined at compile time: 1",无论我做什么

createexternaltableifnotexistsmy_table(customer_idSTRING,ip_idSTRING)location'ip_b_class';然后:hive>setmapred.reduce.tasks=50;hive>selectcount(distinctcustomer_id)frommy_table;TotalMapReducejobs=1LaunchingJob1outof1Numberofreducetasksdeterminedatcompiletime:1里面有160GB,1个reducer需要很长时间...[ihadanny@lv

sql - 如何在 hive sql 中获取每个组的最大 row_number()

在配置单元SQL中使用row_number(),我可以通过在where子句中选择1来过滤重复项/选择id的第一个实例,如下所示。我在这里需要的是如何找到每个组中的最后一个实例。select*from(selectc1,c2,c3,c4,c5,id,row_number()over(partitionbyidORDERBYid)asseqfromtable)ascntwhereseq=1;我的要求是,例如,如果id1212有3个实例,而1313有5个实例,如下表所示,我可以使用上面的查询并通过在where子句中选择1来仅获取一个实例。但是我想要下面的id12123和5id1313。c1,

hadoop - 亚马逊电子病历 : Set unique number of mappers and reducers per EMR instance

我正在运行一个具有M个核心实例和N个任务实例的AmazonEMR集群。我的作业每天运行多次并且对时间敏感,因此我保持M核心实例24/7全天候运行,这样我就没有与S3之间的数据传输开销。N个任务节点正在根据需要动态启动和终止。M个核心节点为c1.mediums,N个任务节点为m2.xlarge。有没有办法为每个实例配置mapred.tasktracker.map.tasks.maximum和mapred.tasktracker.reduce.tasks.maximum?对于我想要的核心节点:mapred.tasktracker.map.tasks.maximum=2mapred.task

python-2.7 - java.io.IOException : Broken pipe on increasing number of mappers/reducers, 很多

我在6个节点的hadoop集群上运行MapReduce作业,配置了4个映射任务和10个缩减任务。Mapper/Reducer在增加map/reduce任务数量时失败很多,如下所示,我遇到以下错误:标准错误日志java.lang.RuntimeException:PipeMapRed.waitOutputThreads():subprocessfailedwithcode143atorg.apache.hadoop.streaming.PipeMapRed.waitOutputThreads(PipeMapRed.java:362)atorg.apache.hadoop.streamin

Hadoop MapReduce : default number of mappers

如果我不指定映射器的数量,如何确定该数量?是否有从配置文件(例如mapred-site.xml)中读取的默认设置? 最佳答案 在Chris上面添加的内容上添加更多内容:映射的数量通常由输入文件中的DFSblock数量决定。虽然这会导致人们调整他们的DFSblock大小来调整map的数量。map的正确并行级别似乎是大约10-100个map/节点,尽管对于非常cpu-lightmaptask,这可以达到300左右。任务设置需要一段时间,因此最好至少花一分钟时间执行map。您可以通过修改JobConf的conf.setNumMapTask

hadoop - pig : Control number of mappers

我可以通过在生成缩减器的语句中使用PARALLEL子句来控制缩减器的数量。我想控制映射器的数量。数据源已经创建,我无法减少数据源中的部件数。是否可以控制我的pig语句生成的map数量?我可以对生成的map数量设置上下限吗?控制这个是个好主意吗?我尝试使用pig.maxCombinedSplitSize、mapred.min.split.size、mapred.tasktracker.map.tasks.maximum等,但它们似乎没有帮助。有人可以帮助我了解如何控制map的数量并可能分享一个工作示例吗? 最佳答案 映射器的数量有一个

Java Hadoop : How can I create mappers that take as input files and give an output which is the number of lines in each file?

我是Hadoop的新手,我已经设法运行了wordCount示例:http://hadoop.apache.org/common/docs/r0.18.2/mapred_tutorial.html假设我们有一个包含3个文件的文件夹。我希望每个文件都有一个映射器,这个映射器将只计算行数并将其返回给缩减器。然后,reducer会将每个映射器的行数作为输入,并将所有3个文件中存在的总行数作为输出。所以如果我们有以下3个文件input1.txtinput2.txtinput3.txt映射器返回:mapper1->[input1.txt,3]mapper2->[input2.txt,4]mappe

performance - Spark : Inconsistent performance number in scaling number of cores

我正在使用排序基准对Spark进行简单的扩展测试——从1个核心到8个核心。我注意到8核比1核慢。//runsparkusing1corespark-submit--masterlocal[1]--classjohn.sortsort.jardata_800MB.txtdata_800MB_output//runsparkusing8coresspark-submit--masterlocal[8]--classjohn.sortsort.jardata_800MB.txtdata_800MB_output每种情况下的输入和输出目录都在HDFS中。1core:80secs8cores:1

Hadoop MapReduce : Clarification on number of reducers

在MapReduce框架中,一个reducer用于映射器生成的每个键。因此您会认为在HadoopMapReduce中指定Reducers的数量没有任何意义,因为它取决于程序。但是,Hadoop允许您指定要使用的reducer的数量(-Dmapred.reduce.tasks=#ofreducers)。这是什么意思?reducer数量的参数值是否指定有多少机器资源进入reducer,而不是实际使用的reducer的数量? 最佳答案 onereducerisusedforeachkeygeneratedbythemapper此评论不正确