草庐IT

delayed_job

全部标签

java - 在集群中启动 MapReduce 作业失败,退出代码为 : -1000 and job. jar 不存在

我正在尝试在Java代码中启动mapreduce作业并将作业提交给yarn。但出现以下错误:2018-08-2600:46:26,075WARN[main]util.NativeCodeLoader(NativeCodeLoader.java:(62))-Unabletoloadnative-hadooplibraryforyourplatform...usingbuiltin-javaclasseswhereapplicable2018-08-2600:46:27,526INFO[main]client.RMProxy(RMProxy.java:createRMProxy(92))-

java - Hadoop Map/Reduce WARN mapred.LocalJobRunner : job_local_0001 java. io.EOFException?

在Eclipse6.91中运行Hadoop0.20.2M/R应用。我在执行后收到这些错误和警告:13/07/2416:52:52INFOjvm.JvmMetrics:InitializingJVMMetricswithprocessName=JobTracker,sessionId=13/07/2416:52:52WARNmapred.JobClient:UseGenericOptionsParserforparsingthearguments.ApplicationsshouldimplementToolforthesame.13/07/2416:52:52WARNmapred.Jo

java - hadoop job -kill <ID> 无法杀死

我使用的是1.0.4版。有些工作一直挂起,所以我一直试图杀死这些工作以释放源...但是,killing命令似乎不起作用...这是我正在做的:hadoopjob-listJobIdStateStartTimeUserNamePrioritySchedulingInfojob_111473112865969xyzNORMALNAhadoopjob-killjob_1Killedjobjob_2在此之后,我再次运行list命令,被杀死的作业仍然存在:hadoopjob-listJobIdStateStartTimeUserNamePrioritySchedulingInfojob_11147

hadoop - Apache kylin cube 失败 "no counters for job"

使用kylin1.5.4,当我构建立方体时,它在第3步失败,日志显示“没有工作计数器”。它也没有获取配置单元表的基数。当我创建一个模型或多维数据集时,它会抛出无法采取行动的错误,但是当我关闭json页面时,它们就会被创建。它不获取日期分区列,抛出在日志中找不到的列。非常感谢任何帮助或见解。 最佳答案 这有点晚了,但我在当前项目中也遇到了这个问题,我得到了“没有工作计数器”错误。问题是我们在Hive中使用ORC表。我们只是将数据从ORC表移至新的TEXTFILE表,并使用新表在Kylin多维数据集中设置所有内容,一切正常。

java - 在 java 代码中设置 job.properties 文件以启动 oozie 操作

我正在尝试使用Java代码启动oozie操作。使用命令行时,我们通过“-configjob.properties”指定属性文件,它知道选择哪个工作流程。我们如何在java代码中定义“job.properties”文件来完成相同的任务?conf.setProperty(OozieClient.APP_PATH,"hdfs://clusterdb05.com:8020/user/apps/merge-logs/workflow.xml");conf.setProperty("jobTracker","jobtracker.com:8021");conf.setProperty("nameN

java - Hadoop Job 在最后几个百分比时真的很慢吗?

我一直在Hadoop集群版本0.20.2上运行作业,直到最近一切都正常,没有任何原因,也没有任何错误,maptask的最后几个百分比比作业的其余部分花费的时间长得多,其中最后2%需要30秒,其余工作不到30秒。无论输入大小如何,现在所有作业都会发生这种情况这是一个输入数据为4GB的示例,在此问题之前整个作业从提交到完成需要37秒,但现在需要一分钟多:14/08/0120:57:12INFOinput.FileInputFormat:Totalinputpathstoprocess:114/08/0120:57:12INFOmapred.JobClient:Runningjob:job_

hadoop - 避免 "The number of tasks for this job 100325 exceeds the configured limit"错误

我有一个每周在生产集群上运行的Pig脚本。在上次运行中我得到了以下错误org.apache.pig.backend.executionengine.ExecException:ERROR6017:Jobfailed!Error-Jobinitializationfailed:java.io.IOException:Thenumberoftasksforthisjob100325exceedstheconfiguredlimit100000atorg.apache.hadoop.mapred.JobInProgress.initTasks(JobInProgress.java:719)a

hadoop - Hive 不尊重 mapreduce.job.reduces

以下形式的配置单元插入语句:insertintomy_tableselect*frommy_other_table;正在使用一个reducer-即使在执行以下操作之前:setmapreduce.job.reduces=80;有没有办法强制配置单元使用更多的reducer?没有明确的理由说明为什么这个特定的查询会执行单个reducer-假设末尾没有ORDERBY子句。顺便说一句,源表和目标表都是storedasparquet 最佳答案 SELECT*FROMtable;在Hive中不使用任何reducer-它是一个map-only作业

hadoop - 如果 Map 插槽跨机架启动,那么 Job Tracker 如何处理数据?

1.当将任务分配给任务跟踪器进行处理时,作业跟踪器首先尝试在具有包含数据的数据节点的同一服务器上找到具有空闲槽的任务跟踪器(以确保数据局部性)2.如果它没有找到这个TaskTracker,它会在跨机架查找TaskTracker之前在同一机架中的另一个节点上寻找TaskTracker。经验法则:处理逻辑只会到达数据进行处理。假设Tasktracker跨机架启动,相应的处理数据不可用,那么在这种情况下,处理逻辑(程序)如何到达数据,而不是数据到达处理逻辑(程序)? 最佳答案 当本地没有数据时,需要通过网络传输。数据局部性不是一个规则(远

hadoop - 通过 spark job 创建 hive 表

我正在尝试在hadoop集群(BigInsight4.1发行版)上创建hive表作为我的spark(1.5.1版)作业的输出,但我面临权限问题。我的猜测是spark使用默认用户(在本例中为“yarn”而不是作业提交者的用户名)来创建表,因此未能这样做。我尝试自定义hive-site.xml文件以设置一个经过身份验证的用户,该用户有权创建配置单元表,但这没有用。我还尝试将Hadoop用户变量设置为经过身份验证的用户,但它也没有用。我想避免保存txt文件然后创建配置单元表以优化性能并通过orc压缩减小输出的大小。我的问题是:有什么方法可以调用sparkdataframeapi的write函