草庐IT

CATALOG_NUMBER

全部标签

python-2.7 - java.io.IOException : Broken pipe on increasing number of mappers/reducers, 很多

我在6个节点的hadoop集群上运行MapReduce作业,配置了4个映射任务和10个缩减任务。Mapper/Reducer在增加map/reduce任务数量时失败很多,如下所示,我遇到以下错误:标准错误日志java.lang.RuntimeException:PipeMapRed.waitOutputThreads():subprocessfailedwithcode143atorg.apache.hadoop.streaming.PipeMapRed.waitOutputThreads(PipeMapRed.java:362)atorg.apache.hadoop.streamin

Hadoop MapReduce : default number of mappers

如果我不指定映射器的数量,如何确定该数量?是否有从配置文件(例如mapred-site.xml)中读取的默认设置? 最佳答案 在Chris上面添加的内容上添加更多内容:映射的数量通常由输入文件中的DFSblock数量决定。虽然这会导致人们调整他们的DFSblock大小来调整map的数量。map的正确并行级别似乎是大约10-100个map/节点,尽管对于非常cpu-lightmaptask,这可以达到300左右。任务设置需要一段时间,因此最好至少花一分钟时间执行map。您可以通过修改JobConf的conf.setNumMapTask

hadoop - pig : Control number of mappers

我可以通过在生成缩减器的语句中使用PARALLEL子句来控制缩减器的数量。我想控制映射器的数量。数据源已经创建,我无法减少数据源中的部件数。是否可以控制我的pig语句生成的map数量?我可以对生成的map数量设置上下限吗?控制这个是个好主意吗?我尝试使用pig.maxCombinedSplitSize、mapred.min.split.size、mapred.tasktracker.map.tasks.maximum等,但它们似乎没有帮助。有人可以帮助我了解如何控制map的数量并可能分享一个工作示例吗? 最佳答案 映射器的数量有一个

Java Hadoop : How can I create mappers that take as input files and give an output which is the number of lines in each file?

我是Hadoop的新手,我已经设法运行了wordCount示例:http://hadoop.apache.org/common/docs/r0.18.2/mapred_tutorial.html假设我们有一个包含3个文件的文件夹。我希望每个文件都有一个映射器,这个映射器将只计算行数并将其返回给缩减器。然后,reducer会将每个映射器的行数作为输入,并将所有3个文件中存在的总行数作为输出。所以如果我们有以下3个文件input1.txtinput2.txtinput3.txt映射器返回:mapper1->[input1.txt,3]mapper2->[input2.txt,4]mappe

performance - Spark : Inconsistent performance number in scaling number of cores

我正在使用排序基准对Spark进行简单的扩展测试——从1个核心到8个核心。我注意到8核比1核慢。//runsparkusing1corespark-submit--masterlocal[1]--classjohn.sortsort.jardata_800MB.txtdata_800MB_output//runsparkusing8coresspark-submit--masterlocal[8]--classjohn.sortsort.jardata_800MB.txtdata_800MB_output每种情况下的输入和输出目录都在HDFS中。1core:80secs8cores:1

Hadoop MapReduce : Clarification on number of reducers

在MapReduce框架中,一个reducer用于映射器生成的每个键。因此您会认为在HadoopMapReduce中指定Reducers的数量没有任何意义,因为它取决于程序。但是,Hadoop允许您指定要使用的reducer的数量(-Dmapred.reduce.tasks=#ofreducers)。这是什么意思?reducer数量的参数值是否指定有多少机器资源进入reducer,而不是实际使用的reducer的数量? 最佳答案 onereducerisusedforeachkeygeneratedbythemapper此评论不正确

hadoop - Apache Spark : The number of cores vs. 执行者数量

我试图了解在YARN上运行Spark作业时核心数量与执行程序数量之间的关系。测试环境如下:数据节点数:3数据节点机器规范:CPU:Corei7-4790(核心数:4,线程数:8)内存:32GB(8GBx4)硬盘:8TB(2TBx4)网络:1GbSpark版本:1.0.0Hadoop版本:2.4.0(HortonworksHDP2.1)Spark作业流程:sc.textFile->filter->map->filter->mapToPair->reduceByKey->map->saveAsTextFile输入数据类型:单个文本文件大小:165GB行数:454,568,833输出第二次过

php - "Invalid parameter number: parameter was not defined"插入数据

我使用Yii的主动记录模式已经有一段时间了。现在,我的项目需要为一笔小交易访问不同的数据库。我认为Yii的DAO会对此有好处。但是,我遇到了一个神秘的错误。CDbCommandfailedtoexecutetheSQLstatement:SQLSTATE[HY093]:Invalidparameternumber:parameterwasnotdefined这是我的代码:publicfunctionactionConfirmation{$model_person=newTempPerson();$model=$model_person->find('alias=:alias',arra

php - "Invalid parameter number: parameter was not defined"插入数据

我使用Yii的主动记录模式已经有一段时间了。现在,我的项目需要为一笔小交易访问不同的数据库。我认为Yii的DAO会对此有好处。但是,我遇到了一个神秘的错误。CDbCommandfailedtoexecutetheSQLstatement:SQLSTATE[HY093]:Invalidparameternumber:parameterwasnotdefined这是我的代码:publicfunctionactionConfirmation{$model_person=newTempPerson();$model=$model_person->find('alias=:alias',arra

php - 匹配 "{number}"的正则表达式

我需要用“test(Z)”替换“{Z}”,其中Z始终是使用PHP和正则表达式的无符号整数(除非有更快的方法?)。$code='{45}=={2}->val()-{5}->val()';//applyregexto$codeecho$code;//writes:test(45)==test(2)->val()-test(5)->val()棘手的部分是它需要在速度和内存使用方面以尽可能最好的方式完成。 最佳答案 缺少的行是这样的:$code=preg_replace('/{([0-9]+)}/','test($1)',$code);工作