草庐IT

different-size

全部标签

Kafka中的fetch-min-size、fetch-max-wait和request.timeout.ms配置

当前kafka的版本为2.8.11,SpringBoot的版本为2.7.6,在pom.xml中引入下述依赖: org.springframework.kafkaspring-kafka2.8.11然后在yml配置文件进行如下配置:spring:kafka:bootstrap-servers:127.0.0.1:9092consumer:group-id:0key-deserializer:org.apache.kafka.common.serialization.StringDeserializervalue-deserializer:org.apache.kafka.common.seria

hadoop - yarn : How to run MapReduce jobs with lot of mappers comparing to cluster size

我有1节点Hadoop测试设置和MapReduce作业,它启动96个映射器和6个缩减器。在迁移到YARN之前,这项工作表现稳定但正常。使用YARN,它开始100%挂起,大多数映射器处于“挂起”状态。作业实际上是6个子作业(每个16个映射器+1个缩减器)。此配置反射(reflect)了生产过程顺序。所有这些都在单个JobControl下。与集群大小相比,节点数量少且作业相对较大的情况下,是否需要检查任何配置或最佳实践?当然,我关心的不是性能,而是开发人员完成这项工作的能力。最坏的情况是我可以通过分组子作业来“减少作业”,但我不想这样做,因为在生产中没有理由这样做,我希望测试和生产顺序相同

sql - 配置单元查询 : Selecting column over a partition based on a median of a different column

我无法完成查询建模,因此需要帮助。我的数据是:idnameschoolheight1AS1102BS1123CS1144DS2155ES2166FS217我想选择每个学校的姓名和中位数高度的姓名。预期输出:idnameschoolmyval1AS1B2BS1B3CS1B4DS2E5ES2E6FS2E在这里,B的高度是S1学校的中位数,E是S2的中位数。我知道我们可以使用百分位数获得中位数。但我无法弄清楚如何选择每个分区的值。 最佳答案 下面的查询将起作用:-selecttemp1.id,temp1.name,temp1.school

MongoDB 和 Spark : difference between mongo-hadoop and mongo-spark

mongo-hadoop和mongo-spark连接器有什么区别,pymongo是否只能与mango-hadoop一起使用?pymongo是否只能与mongo-hadoop一起使用? 最佳答案 MongoDBConnectorforHadoop是一个库,它允许MongoDB(或其数据格式的备份文件,BSON)用作HadoopMapReduce任务的输入源或输出目标。它旨在提供更大的灵active和性能,并使MongoDB中的数据与Hadoop生态系统的其他部分(包括以下部分)轻松集成:pigSparkmap化简Hadoop流媒体hi

hadoop - 如何知道 Amazon EMR 实例的 MIN_CONTAINER_SIZE?

如何在AmazonEMR集群上获取MIN_CONTAINER_SIZE的默认设置?因为我想通过这个公式来计算EMR上每个节点的内存使用情况RAM-per-container=max(MIN_CONTAINER_SIZE,(TotalAvailableRAM)/containers))谢谢! 最佳答案 在EMR4.x中,默认的最小容器大小为256M。但是上限将受到每个实例类型的节点管理器可用内存的限制(http://docs.aws.amazon.com/ElasticMapReduce/latest/ReleaseGuide/emr

java - 如何调整hadoop集群中的 "DataNode maximum Java heap size"

我在google中搜索以查找有关如何调整值的信息-DataNodemaximumJavaheapsize,除了这个-https://community.hortonworks.com/articles/74076/datanode-high-heap-size-alert.htmlhttps://docs.oracle.com/cd/E19900-01/819-4742/abeik/index.html但未找到计算DataNode最大Java堆大小值的公式DataNode最大Java堆大小的默认值为1G我们将这个值增加到5G,因为在某些情况下我们从数据节点日志中看到关于堆大小的错误但这

hadoop - mapred.min.split.size

我正在尝试在MapReduce中试验这个参数,但我有一些问题。这是否符合HDFS中的大小(无论是否压缩)?还是解压后的?我猜是前者,但只是想确认一下。 最佳答案 仅当您的输入格式支持拆分输入文件时才会使用此参数。常见的压缩编解码器(如gzip)不支持拆分文件,因此将被忽略。如果输入格式确实支持拆分,那么这与压缩后的大小有关。 关于hadoop-mapred.min.split.size,我们在StackOverflow上找到一个类似的问题: https://s

Hadoop 映射器 : Appropriate input files size?

我的集群HDFSblock大小为64MB。我有包含100个纯文本文件的目录,每个文件的大小为100MB。作业的InputFormat是TextInputFormat。将运行多少个映射器?我在HadoopDeveloper考试中看到了这个问题。答案是100。其他三个答案选项是64、640、200。但我不确定100是怎么来的,或者答案是错误的。请指导。提前致谢。 最佳答案 我同意你的判断,这似乎是错误的当然除非有更多的考试问题没有发布:这些“纯”文本文件是否经过gzip压缩-在这种情况下它们不可拆分?)簇分割大小可能是64MB,但输入文

hadoop - 为什么 BytesWritable.setSize(size) 使字节空间为 1.5*size?

我正在使用hadoop编写程序。我的问题代码如下(代码在映射器中):byte[]tmp=newbyte[2];tmp[0]=0x01;tmp[1]=0x02;BytesWritableoutputKey=newBytesWritable();outputKey.set(tmp,0,2);然而,当我操作从mapper得到的reducer中的key时,却让我大吃一惊:byte[]reducerKey=key.getBytes();reducerKey如下:reducerKey[0]->0x01;reducerKey[1]->0x02;reducerKey[2]->0x00;为什么我输入的t

java - HBase、Hadoop : How can I estimate the size of a HBase table or Hadoop File System Paths?

我有多个HBase表,如何估计在java中使用的表的大概大小? 最佳答案 一种方法是您必须通常在/hbase文件夹下使用java客户端访问hdfs所有表格信息。将出席。Hadoop外壳:您可以检查使用hadoopfs-du-h**pathtohbase**/hbase在/hbase下每张表多占一个文件夹...hadoopfs-ls-R**hbase路径**/hbasehadoopfs-du-h**hbase路径**/hbase/表名JavaHDFS客户端:同样的,你可以通过在hbaseroot目录下传递每个表路径来使用javahdf