草庐IT

hadoop - 在配置单元中加载数据时出现 nameservice1 错误

我试图在配置单元的表中加载一个平面文件并出现以下错误。失败:IllegalArgumentExceptionjava.net.UnknownHostException:nameservice1不确定这里需要做什么。表创建为CREATETABLEIFNOTEXISTSpoc_yi2(IndexValid_fgSTRING)ROWFORMAT分隔字段以','结尾,存储为文本文件数据文件包含一行是是的,加载数据的命令是:加载数据本地inpath'/home/user1/testx/1'覆盖到表poc_yi2;这是配置参数吗?我对Hive比较陌生。有人可以帮忙吗 最

java - "Pivot"使用 Hadoop 的表

(免责声明:我是Hadoop和Java的新手)作为输入,有一个具有简单键值结构的表:key1value1key2value2key3value3key2value4key1value5key1value6作为输出,我想为每个键收集属于特定键的所有值,所以像这样:key1,value1value5value6key2,value2value4key3,value3这是我的映射器:publicclassWordMapperextendsMapper{@Overridepublicvoidmap(Objectkey,Textvalue,Contextcontext)throwsIOExcep

java - 创建 Hadoop java 示例

我知道以前有人问过这个问题,但我似乎无法弄明白。我有一个使用hadoop的单节点集群设置,它运行正常。我正在尝试编译WordCount.java示例:importjava.io.IOException;importjava.util.*;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.conf.*;importorg.apache.hadoop.io.*;importorg.apache.hadoop.mapred.*;importorg.apache.hadoop.util.*;publicclassWordCount{

hadoop - 使用 Amazon S3 存储桶输入和输出在 Amazon EMR 上运行自定义 JAR 时出现错误(文件系统错误)

我正在尝试使用自定义JAR的输入和输出参数作为S3存储桶在AmazonEMR集群上运行自定义JAR(-inputs3n://s3_bucket_name/ldas/in-outputs3n://s3_bucket_name/ldas/out)当集群运行此自定义JAR时,会发生以下异常。Exceptioninthread"main"java.lang.IllegalArgumentException:**WrongFS:s3n://s3_bucket_name/ldas/out,expected:hdfs://10.214.245.187:9000**atorg.apache.hadoo

hadoop - yarn : How to run MapReduce jobs with lot of mappers comparing to cluster size

我有1节点Hadoop测试设置和MapReduce作业,它启动96个映射器和6个缩减器。在迁移到YARN之前,这项工作表现稳定但正常。使用YARN,它开始100%挂起,大多数映射器处于“挂起”状态。作业实际上是6个子作业(每个16个映射器+1个缩减器)。此配置反射(reflect)了生产过程顺序。所有这些都在单个JobControl下。与集群大小相比,节点数量少且作业相对较大的情况下,是否需要检查任何配置或最佳实践?当然,我关心的不是性能,而是开发人员完成这项工作的能力。最坏的情况是我可以通过分组子作业来“减少作业”,但我不想这样做,因为在生产中没有理由这样做,我希望测试和生产顺序相同

hadoop - 当映射器在 EMR 流式处理作业中死亡时会发生什么?

在弹性mapreduce流作业中,如果mapper突然挂掉会发生什么?已经处理过的数据会被重播?如果是这样,是否有任何选项可以禁用它?我问是因为我正在使用EMR将一些数据插入第三方数据库。每个映射器发送通过HTTP传入的数据。在这种情况下,如果映射器崩溃,我不想重播HTTP请求,我需要从我离开的地方继续。 最佳答案 MR是一个容错框架。当Map任务失败时(流式API或JavaAPI),行为是相同的。一旦作业跟踪器收到任务失败的通知,它将尝试重新安排任务。失败任务生成的临时输出被删除。关于MR中如何处理失败的更详细的讨论可见here对

hadoop - 使用 Hue - Pig Editor,如何将 param_file 提供给 pig 脚本?

我们可以使用Hue-PigEditor提供参数。但是,如何使用Hue将参数文件提供给pig脚本。在gruntshell中,我们使用以下命令来提供参数文件。$pig-param_file/tmp/pig_params.txttest.pig以上是我想从Hue的PigEditor做的事情。可能吗? 最佳答案 Pig编辑器有一个带有“Pig参数”列表的“属性”部分。你可以进去输入/用户/数据-paraminput=/user/data-optimizer_offSplitFilter-详细最新的Hue版本:http://demo.geth

hadoop - 伪分布式配置hbase

我正在尝试以伪分布式模式配置hbase。我尝试了很多教程,但每次我在日志中遇到此错误2014-04-2916:47:47,029WARNorg.apache.hadoop.hbase.master.AssignmentManager:Failedassignmentof-ROOT-,,0.70236052toserverName=localhost,60020,1398804454531,load=(requests=0,regions=0,usedHeap=0,maxHeap=0),tryingtoassignelsewhereinstead;retry=0org.apache.ha

hadoop - 如何通过并行运行的两个 map task 并行读取两个文件

请对我放轻松一点,因为我才接触Hadoop和Mapreduce3个月。我有2个文件,每个文件120MB,每个文件中的数据完全是非结构化的,但具有共同的模式。由于数据结构不同,默认的LineInputFormat无法满足我的要求。因此,在读取文件时,我覆盖了isSplitable()方法并通过返回false来停止拆分。这样1个映射器就可以访问一个完整的文件,我可以执行我的逻辑并实现要求。我的机器可以并行运行两个映射器,所以通过停止拆分,我通过为每个文件一个一个地运行映射器而不是为一个文件并行运行两个映射器来降低性能。我的问题是如何为两个文件并行运行两个映射器以提高性能。例如Whenspl

hadoop_mapreduce_wordcount 字符串到文本或文本到字符串

选择计数(*)从F其中A='李'我想使用wordcount示例将此查询转化为代码。publicclassWordCountDriver{publicstaticvoidmain(String[]args)throwsException{Configurationconf=newConfiguration();Jobjob=newJob(conf,"wordcount");job.setJarByClass(WordCountDriver.class);job.setMapperClass(WordCountMapper.class);job.setInputFormatClass(Te