草庐IT

Power-job

全部标签

hadoop - 如何每天将增量记录从 Oracle 加载到 HDFS,我们可以使用 Sqoop 或 MR Jobs。哪个是首选方法

如何每天从Oracle加载增量记录到HDFS?我们可以使用Sqoop或MRJobs吗? 最佳答案 Sqoop正是为此目的而设计的,并且会导致MR作业完成复制数据的工作。有多种方法可以确定Oracle表中的新内容,例如使用表的ID,或者可能使用日期修改字段(如果有的话)。与Hadoop中的大多数东西相比,Sqoop相当简单。这是文档的链接——搜索“增量”或从第7.2.9节开始了解更多信息。http://sqoop.apache.org/docs/1.4.6/SqoopUserGuide.html仅供引用一旦您使其正常工作,请查看设计用

performance - Mapreduce Job - 完成时间太长

我们已经编写了一个mapreduce作业来处理日志文件。到目前为止,我们有大约52GB的输入文件,但处理数据大约需要一个小时。它默认只创建一个reducer作业。我们经常会看到reduce任务中出现超时错误,然后它会重新启动并完成.以下是成功完成工作的统计数据。请告诉我们如何改进性能。FileSystemCountersFILE:Numberofbytesread=876100387FILE:Numberofbyteswritten=1767603407FILE:Numberofreadoperations=0FILE:Numberoflargereadoperations=0FILE

hadoop - yarn : Controlling concurrency of jobs

我一直在尝试使用YARN资源队列,通过在任何给定时间控制作业数量(我只有MR作业,没有其他YARN应用程序)来控制争用。我的情况是——我有一项服务可以接受来自用户的请求并运行一些报告(作为MR作业)。这些工作有时会很耗时,在高峰期,这些工作会争夺资源,过多的共享意味着没有一个工作能取得像样的进展。我正在尝试尽量减少在任何给定时间可以在队列上运行的报告数量。我可以通过将队列的最大运行应用程序设置为所需值来完成部分工作。现在,我可以将MR应用程序/作业提交到集群,并且在任何给定时间只运行(假设为“n”)作业。现在,问题是,没有办法抢占同一个队列中的任务(或者我不知道)。我希望我能够以这样的

hadoop - 在 spark 上执行 hive 查询 - java.lang.NoClassDefFoundError org/apache/hive/spark/client/Job

我试图让HiveonSpark正常工作,但它似乎没有加载hive-exec-2.0.1.jar。我可以让Hiveonmr工作得很好。我正在使用Hive2.0.1和Spark1.6.1。遵循了HiveonSpark教程。我在hive-site.xml上设置了所有必要的属性,将sparkassemblyjar链接到hivelib文件夹中,我已经设置了所有环境变量(SPARK_HOME等)。我启动了Sparkmaster和worker。还以DEBUG级别启动了hiveserver2。尝试运行一个简单的查询“selectcount(*)...”,据我在配置单元日志中看到的那样,它执行带有所有必

hadoop - java IOException : Write end dead during a hadoop job 异常

我有一个map-onlyhadoop作业,它在工作期间抛出几个IO异常:1)java.io.IOException:写结束2)java.io.IOException:管道关闭它设法完成了它的工作,但有异常(exception)让我担心。我做错了什么吗?几乎相同的工作每天都在另一个小20倍的数据集上工作,并且没有抛出任何异常。作业由Googledataproc运行。我正在使用的配置文件:#!/bin/bashhadoopjar/usr/lib/hadoop-mapreduce/hadoop-streaming.jar\-Dmapreduce.output.fileoutputformat

hadoop - Ended Job = job_local644049657_0014 with errors Error during job, 获取调试信息

如何找到日志文件请指导我已经检查了资源管理器的url。但是我没有找到任何日志文件这是完整的错误QueryID=hadoop_20170325120040_d54d136a-1904-4af9-8f8d-4167343db072Totaljobs=1LaunchingJob1outof1Numberofreducetasksissetto0sincethere'snoreduceoperatorJobrunningin-process(localHadoop)2017-03-2512:00:42,954Stage-0map=0%,reduce=0%EndedJob=job_local64

scala - Google dataproc spark 作业失败并显示 "Node was restarted while executing a job."消息

我正在为各种Spark流作业运行多个数据处理集群。所有集群都配置为单节点。最近(大约10天前)我开始在所有集群上遇到作业失败。每个作业运行大约。3天后失败并显示相同的消息:===========CloudDataprocAgentError===========com.google.cloud.hadoop.services.agent.AgentException:Nodewasrestartedwhileexecutingajob.Thiscouldbeuser-initiatedorcausedbyComputeEnginemaintenanceevent.(TASK_FAILE

excel - 来自 Excel Power Query 的 HDFS 连接

拥有一台运行Hadoop实例的服务器。基本上,我想通过本地计算机上的Excel连接到一些HDFS表。我知道PowerQuery插件有助于处理该操作并提供与HDFS建立连接的机会。但事情是这样的——我有Excel2016,所以根据Microsoft文档,PowerQuery已经内置在Excel中。但是当我尝试执行“数据-从其他来源获取数据”时,根本没有“从Hadoop文件(HDFS)获取数据”之类的选项我做错了什么,我需要采取哪些具体步骤才能从Excel访问HDFS? 最佳答案 对我来说,HDFS显示在这里:但不是这里:第一个“来自其

hadoop - 无法在 oozie 中运行 "sqoop job --exec"

需要一些建议我正在尝试在oozie中运行sqoop作业,但它突然被杀死并且oozie-error.log中有这个警告2018-01-2117:30:12,473WARNSqoopActionExecutor:523-SERVER[edge01.domain.com]USER[linknet]GROUP[-]TOKEN[]APP[sqoop-wf]JOB[0000006-180121122345026-oozie-link-W]ACTION[0000006-180121122345026-oozie-link-W@sqoop-node]LauncherERROR,reason:Mainc

apache-spark - 在 rapidminer : error occurred during submitting or starting the spark job 上运行 Spark

我正在使用rapidminer从大型数据集中提取规则。Radoop是hadoop生态系统的扩展,而sparkRM运算符允许进行fp-growth,从从hive检索数据到探索分析。我正在尝试:-Windows8.1-hadoop6.2-Spark1.5-hive2.1我已将spark-default-conf配置如下:#spark.masteryarn#spark.eventLog.enabledtrue#spark.eventLog.dirhdfs://namenode:8021/directory#spark.serializerorg.apache.spark.serializer