草庐IT

task_completion_source

全部标签

java - spring-xd如何使用source :file read line one by one

我有一个流,用于监视目录中多个文件的输出、处理数据并将其放入HDFS。这是我的流创建命令:streamcreate--namefileHdfs--definition"file--dir=/var/log/supervisor/--pattern=tracker.out-*.log--outputType=text/plain|logHdfsTransformer|hdfs--fsUri=hdfs://192.168.1.115:8020--directory=/data/log/appsync--fileName=log--partitionPath=path(dateFormat(

hadoop - 如何在 hadoop 流中跳过失败的 map task

我正在运行一个hadoop流式mapreduce作业,它总共有26895个映射任务。但是,处理特定输入的任务总是失败。所以我设置了mapreduce.map.failures.maxpercent=1,想跳过失败的任务,但是作业还是没有成功。Kind%CompleteNumTasksPendingRunningCompleteKilledFailed/KilledTaskAttemptsmap100.00%26895002689418/44reduce100.00%100010/1我怎样才能跳过这个? 最佳答案 同样有一个配置可用。

python - 深度学习 : is there any open-source library that can be integrated with Hadoop streaming and MapReduce?

关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。关闭6年前。Improvethisquestion谷歌搜索弹出了不少开源深度学习框架。这是一个收集列表GoogleTensorFlowTheanomxnetkerasPylearn2BlocksLasagnechainerscikit-neuralnetworktheano-lightsdeepyidlfreinforce.jsopendeepmxnet.jsCGTTorchCaffescikit-cudacuda4

java - Hadoop:你能默默丢弃一个失败的 map task 吗?

我正在使用hadoopMapReduce处理大量数据。问题是,损坏的文件偶尔会导致Map任务抛出Java堆空间错误或类似的错误。如果可能的话,最好丢弃maptask正在做的任何事情,杀死它,然后继续工作,不要在意丢失的数据。我不希望整个M/R工作因此而失败。这在hadoop中可行吗?如何实现? 最佳答案 您可以修改mapreduce.max.map.failures.percent参数。默认值为0。增加此参数将允许一定比例的map任务失败而不会使作业失败。您可以在mapred-site.xml中设置此参数(将应用于所有作业),或逐个

java - 所有 map task 的 Hadoop 缓存文件

我的map函数必须为每个输入读取一个文件。那个文件根本没有改变,它只是为了阅读。我认为分布式缓存可能对我有很大帮助,但我找不到使用它的方法。我认为我需要覆盖的publicvoidconfigure(JobConfconf)函数已被弃用。好吧,JobConf肯定被弃用了。所有DistributedCache教程都使用已弃用的方式。我能做什么?我可以覆盖另一个配置功能吗?这些是我的map函数的第一行:Configurationconf=newConfiguration();//loadtheMFileFileSystemfs=FileSystem.get(conf);PathinFile=

Hadoop - 在xml中增加 map task 不会在运行时增加 map task

我在conf/mapred-site.xml中添加了以下内容mapred.tasktracker.map.tasks.maximum4mapred.tasktracker.reduce.tasks.maximum1但是当我运行该作业时,它仍然运行2个map(这是默认的)?我怎样才能强制这个数字增加?附言我正在使用Ubuntu四核box谢谢 最佳答案 您是否正在处理少量数据?可能是您的MapReduce作业仅在一个输入拆分上运行,因此不需要更多映射器。尝试在数百MB的数据上运行您的作业,看看您是否仍然遇到同样的问题。单个节点上能够运行

java - Hadoop 作业 : Task fail to report status for 601 seconds

在伪节点上运行hadoop作业时,任务失败并被杀死。错误:任务尝试_未能报告状态601秒但相同的程序正在通过Eclipse运行(本地作业)。任务:大约有25K个关键字,输出将是所有可能的组合(一次两个),即大约25K*25K个整体可能是什么问题? 最佳答案 由于某种原因,任务在您的伪节点上执行时没有进行。您可以增加mapred-site.xml中的设置“mapred.task.timeout”。mapred-default.xml中相同的默认值为:mapred.task.timeout600000Thenumberofmillise

java.lang.ClassNotFoundException: org.apache.flink.connector.base.source.reader.RecordEmitter

环境Flink1.16.0mysql-cdc2.3.0pom.xml引用的依赖dependency>groupId>com.ververicagroupId>artifactId>flink-connector-mysql-cdcartifactId>version>2.3.0version>dependency>报错信息Servlet.service()forservlet[dispatcherServlet]incontextwithpath[]threwexception[Handlerdispatchfailed;nestedexceptionisjava.lang.NoClassDe

java - Spark 异常 : Task failed while writing rows

我正在读取文本文件并将它们转换为parquet文件。我正在使用Spark代码来做这件事。但是当我尝试运行代码时出现以下异常org.apache.spark.SparkException:Jobabortedduetostagefailure:Task2instage1.0failed4times,mostrecentfailure:Losttask2.3instage1.0(TID9,XXXX.XXX.XXX.local):org.apache.spark.SparkException:Taskfailedwhilewritingrows.atorg.apache.spark.sql.

java - 由于 Task attempt failed to report status 600 秒,reduce 失败。杀戮!解决方案?

作业的reduce阶段失败并显示:失败的Reduce任务超出了允许的限制。每个任务失败的原因是:任务attempt_201301251556_1637_r_000005_0未能报告状态达600秒。杀!问题详情:Map阶段接收格式为:time,rid,data的每条记录。数据的格式为:数据元素及其计数。例如:a,1b,4c,7对应一条记录的数据。映射器为每个数据元素输出每条记录的数据。例如:key:(time,a,),val:(rid,data)键:(时间,b,),val:(删除,数据)key:(time,c,),val:(rid,data)每一个reduce从所有的记录中接收同一个ke