草庐IT

HADOOP_NAMENODE_OPTS

全部标签

hadoop - 使用 Amazon S3 存储桶输入和输出在 Amazon EMR 上运行自定义 JAR 时出现错误(文件系统错误)

我正在尝试使用自定义JAR的输入和输出参数作为S3存储桶在AmazonEMR集群上运行自定义JAR(-inputs3n://s3_bucket_name/ldas/in-outputs3n://s3_bucket_name/ldas/out)当集群运行此自定义JAR时,会发生以下异常。Exceptioninthread"main"java.lang.IllegalArgumentException:**WrongFS:s3n://s3_bucket_name/ldas/out,expected:hdfs://10.214.245.187:9000**atorg.apache.hadoo

hadoop - yarn : How to run MapReduce jobs with lot of mappers comparing to cluster size

我有1节点Hadoop测试设置和MapReduce作业,它启动96个映射器和6个缩减器。在迁移到YARN之前,这项工作表现稳定但正常。使用YARN,它开始100%挂起,大多数映射器处于“挂起”状态。作业实际上是6个子作业(每个16个映射器+1个缩减器)。此配置反射(reflect)了生产过程顺序。所有这些都在单个JobControl下。与集群大小相比,节点数量少且作业相对较大的情况下,是否需要检查任何配置或最佳实践?当然,我关心的不是性能,而是开发人员完成这项工作的能力。最坏的情况是我可以通过分组子作业来“减少作业”,但我不想这样做,因为在生产中没有理由这样做,我希望测试和生产顺序相同

hadoop - 当映射器在 EMR 流式处理作业中死亡时会发生什么?

在弹性mapreduce流作业中,如果mapper突然挂掉会发生什么?已经处理过的数据会被重播?如果是这样,是否有任何选项可以禁用它?我问是因为我正在使用EMR将一些数据插入第三方数据库。每个映射器发送通过HTTP传入的数据。在这种情况下,如果映射器崩溃,我不想重播HTTP请求,我需要从我离开的地方继续。 最佳答案 MR是一个容错框架。当Map任务失败时(流式API或JavaAPI),行为是相同的。一旦作业跟踪器收到任务失败的通知,它将尝试重新安排任务。失败任务生成的临时输出被删除。关于MR中如何处理失败的更详细的讨论可见here对

hadoop - 使用 Hue - Pig Editor,如何将 param_file 提供给 pig 脚本?

我们可以使用Hue-PigEditor提供参数。但是,如何使用Hue将参数文件提供给pig脚本。在gruntshell中,我们使用以下命令来提供参数文件。$pig-param_file/tmp/pig_params.txttest.pig以上是我想从Hue的PigEditor做的事情。可能吗? 最佳答案 Pig编辑器有一个带有“Pig参数”列表的“属性”部分。你可以进去输入/用户/数据-paraminput=/user/data-optimizer_offSplitFilter-详细最新的Hue版本:http://demo.geth

hadoop - 伪分布式配置hbase

我正在尝试以伪分布式模式配置hbase。我尝试了很多教程,但每次我在日志中遇到此错误2014-04-2916:47:47,029WARNorg.apache.hadoop.hbase.master.AssignmentManager:Failedassignmentof-ROOT-,,0.70236052toserverName=localhost,60020,1398804454531,load=(requests=0,regions=0,usedHeap=0,maxHeap=0),tryingtoassignelsewhereinstead;retry=0org.apache.ha

hadoop - 如何通过并行运行的两个 map task 并行读取两个文件

请对我放轻松一点,因为我才接触Hadoop和Mapreduce3个月。我有2个文件,每个文件120MB,每个文件中的数据完全是非结构化的,但具有共同的模式。由于数据结构不同,默认的LineInputFormat无法满足我的要求。因此,在读取文件时,我覆盖了isSplitable()方法并通过返回false来停止拆分。这样1个映射器就可以访问一个完整的文件,我可以执行我的逻辑并实现要求。我的机器可以并行运行两个映射器,所以通过停止拆分,我通过为每个文件一个一个地运行映射器而不是为一个文件并行运行两个映射器来降低性能。我的问题是如何为两个文件并行运行两个映射器以提高性能。例如Whenspl

hadoop_mapreduce_wordcount 字符串到文本或文本到字符串

选择计数(*)从F其中A='李'我想使用wordcount示例将此查询转化为代码。publicclassWordCountDriver{publicstaticvoidmain(String[]args)throwsException{Configurationconf=newConfiguration();Jobjob=newJob(conf,"wordcount");job.setJarByClass(WordCountDriver.class);job.setMapperClass(WordCountMapper.class);job.setInputFormatClass(Te

hadoop - HDInsight Hive 在 ADD JAR 语句中找不到 SerDe jar

我已经将json-serde-1.1.9.2.jar上传到路径为“/lib/”的blob存储并添加了ADDJAR/lib/json-serde-1.1.9.2.jar但是我得到了/lib/json-serde-1.1.9.2.jardoesnotexist我在没有路径的情况下进行了尝试,并且还向ADDJAR语句提供了完整的url,结果相同。非常感谢对此的一些帮助,谢谢! 最佳答案 如果您不包含该方案,那么Hive将在本地文件系统上查找(您可以查看thesource的第768行附近的代码)当您包含URI时,请确保使用完整形式:ADDJ

java - Hadoop Map Reduce 程序键值传递

我正在尝试学习hadoop。我从免费的大型数据集网站下载了以下文件。我把它简化为我的sample测试。这是小文件。"CAMIS","DBA","BORO","BUILDING","STREET","ZIPCODE","PHONE","CUISINECODE","INSPDATE","ACTION","VIOLCODE","SCORE","CURRENTGRADE","GRADEDATE","RECORDDATE""40280083","INTERCONTINENTALTHEBARCLAY","1","111","EAST48STREET","10017","2129063134","0

ubuntu - Hadoop 卡在 Ubuntu 14.04 上

我正在使用JAVASDK6在Ubuntu14.04上设置Hadoop0.20.2。我一直在按照http://arifn.web.id/blog/2010/07/29/running-hadoop-single-cluster.html上的说明进行操作。并且已经达到“格式化和运行Hadoop”。按照指示,我输入bin/hadoopnamenode-formatbin/hadoopstart-all.sh这似乎可行,我可以使用以下命令查看我的节点的状态bin/hadoopdfsadmin-report接下来,我停止所有节点bin/stop-all.sh此时,我得到一个错误,Hadoop停止