草庐IT

hadoop - MapR 分发中使用的容器架构是什么?

MapR自带了一种不同于HDFS方式的新架构(ContainerArchitecture)。有什么区别?这如何存储数据?有什么优点和缺点? 最佳答案 参见https://www.youtube.com/watch?v=fP4HnvZmpZI特别是从8点35分开始,关于容器架构的想法。另见http://answers.mapr.com/questions/301/why-mapr-dfs-is-better-than-hdfs 关于hadoop-MapR分发中使用的容器架构是什么?,我们在

java - 为什么 Hive 和 HiveServer2 需要 mapred.InputFormat?

我只是想确保我没有遗漏任何东西。我正在为Hive开发一个InputFormat来处理我们特定的hdfs文件格式。我刚刚意识到它需要扩展mapred.InputFormat而不是mapreduce.InputFormat这样对吗?或者我错过了什么?我可以使用mapreduce包中的FileInputFormat吗? 最佳答案 您将不得不使用mapred.InputFormatHive尚未完全迁移到新包。如果您出于任何原因需要/想要使用mapreduce.InputFormat包,您始终可以包装mapreduce.InputFormat

java - Hadoop - 如何从 mapred.JobConf 中提取 taskId?

是否可以从*mapred*.JobConf创建一个有效的*mapreduce*.TaskAttemptID?背景我需要为ExistingFileInputFormat编写一个FileInputFormatAdapter。问题是适配器需要扩展mapred.InputFormat而现有格式扩展mapreduce.InputFormat。我需要构建一个mapreduce.TaskAttemptContextImpl,以便我可以实例化ExistingRecordReader。但是,我无法创建有效的TaskId...taskId为null。那么如何从mapred.JobConf获取taskId、

hadoop - 无法启动 Hive CLI Hadoop(MapR)

我正在尝试访问HiveCLI。但是,由于以下AccessControl问题无法启动。奇怪的是,我能够在没有AccessControl问题的情况下从Hue查询配置单元数据。但是,配置单元CLI不工作。我在MapR集群上。非常感谢任何帮助。[@~]$hiveSLF4J:ClasspathcontainsmultipleSLF4Jbindings.SLF4J:Foundbindingin[jar:file:/opt/mapr/hive/hive-2.1/lib/log4j-slf4j-impl-2.4.1.jar!/org/slf4j/impl/StaticLoggerBinder.clas

hadoop - 在 MapR 集群之间切换

我在mapr-clusters.conf中指定了两个集群cluster1secure=truecldb1:7222cldb2:7222cldb3:7222cluster2secure=truecldb4:7222cldb5:7222cldb6:7222在某些情况下,我想将数据加载到cluster1中。在其他场合,我想在cluster2中加载数据。默认情况下,MapR客户端将第一个指定为默认客户端。如何告诉MapR客户端使用第二个指定的集群?这样hadoopfs-put目标集群2? 最佳答案 通常,MapR支持HDFSAPI的/map

hadoop - org.apache.hadoop.mapred.Mapper 中的 'key K1' 有什么用?

我正在学习ApacheHadoop并且正在查看WordCount示例org.apache.hadoop.examples.WordCount.我已经理解这个例子,但是我可以看到变量LongWritablekey没有在中使用(...)publicvoidmap(LongWritablekey,Textvalue,OutputCollectoroutput,Reporterreporter)throwsIOException{Stringline=value.toString();StringTokenizeritr=newStringTokenizer(line);while(itr.h

java - 即使在命令行上告诉为 -D mapred.reduce.tasks=0 后,hadoop reduce 任务仍在运行

我有一个MapReduce编程为publicstaticclassMapClassextendsMapReduceBaseimplementsMapper{privatefinalstaticIntWritableuno=newIntWritable(1);privateIntWritablecitationCount=newIntWritable();publicvoidmap(Textkey,Textvalue,OutputCollectoroutput,Reporterreporter)throwsIOException{citationCount.set(Integer.par

xml - 改变 mapred.reduce.tasks

我应该在哪个文件中设置reducer的数量和设置mapred.reduce.tasks参数?我的conf文件夹中只有以下文件,没有一个有这个参数:ubuntu@group-3-vm1:~/conf$lscapacity-scheduler.xmlhdfs-site.xmlmapred-site.xmlyarn-site.xmlcore-site.xmlhive-site.xmltez-site.xml 最佳答案 所有Hadoop配置属性都分为以下几组。Hadoop-1.X.X:核心-core-site.xmlhdfs-hdfs-si

java - 在 MAPR 中找不到 Hadoop FS API 文件问题

我在运行hadoopfsapi删除目录时遇到问题。即使我有适当的配置,程序也会抛出异常。需要帮助解决问题。我正在使用下面的maven依赖项hadoop-common2.4.1-mapr-1408hadoop-核心2.4.1-mapr-1408hadoop客户端2.7.1repo:http://repository.mapr.com/maven/packagecom.cisco.installbase.hiveconnector;importjava.io.IOException;importorg.apache.hadoop.conf.Configuration;importorg.a

hadoop - 避免用户覆盖 hadoop 2 中的默认 mapred 属性

如何避免用户在提交hive作业时覆盖hadoop配置文件的默认属性?例子:mapred-site.xml:mapreduce.job.heap.memory-mb.ratio0.8用户在配置单元作业中使用以下属性来覆盖setmapreduce.job.heap.memory-mb.ratio=0.9 最佳答案 来自Hadoopdocumentation:Configurationparametersmaybedeclaredfinal.Oncearesourcedeclaresavaluefinal,nosubsequently-l