我正在运行OOZIE工作流,并在map-reduce操作中进行仅限map的分布式模型拟合。由于有很多映射器,我编写了一个代码,使用yarnlogs-applicationIdapplication_x编译所有映射器任务的YARN日志,其中application_x是所有映射任务的父应用程序ID。现在我想将此摘要作为工作流的一部分,因此我需要动态获取application_x,这是上一个操作的应用程序ID。有什么办法可以得到这个吗? 最佳答案 我没有对此进行测试,但我认为您可以通过工作流EL函数获得此信息:wf:actionExter
我创建了一个接受args[0]=Hadoop的javamain方法的测试可执行jar。java程序接受这个参数并在文本文件中写入以下字符串;“currentTimeStamp/t欢迎使用Hadoop!/n”100,000次。我使用hue界面为java操作创建了一个oozie-workflow。请参阅下面的workflow.xml。然而,oozie-workflow执行成功,但操作不会创建或写入文本文件。文本文件路径为/user/ruben123/test.txt。当我使用命令java-jarTestRunner.jar"Hadoop"在本地unix服务器中运行jar文件时,它会正确执行
我一直在尝试在oozie中的一个Action失败时触发一个Action我可以使用错误节点来做到这一点,如下所示如果我的要求是在当前操作在oozie中失败时回滚,这将非常有效。我一直在寻找的是在工作流被终止的情况下触发一个步骤(如果有人进入工作流并单击HUE中的终止按钮。)当我通过HUE使用oozie时,我可以看到在workflow.xml中生成了一个名为kill的节点。我试图将我的自定义操作放在这个空间中,但每次我保存xml时,工作流都会获得默认值,如下所示Actionfailed,errormessage[${wf:errorMessage(wf:lastErrorNode())}]
在使用期限内,微软会根据API调用情况看账号是否是用于开发,如果符合的话,会在距离到期30天时自动续期,如果不符合就不给续订了,所以可以使用一些办法多多使用,这样就可以持续续订可以使用github的Action实现默认读者已经有github账号并且已经登录了一、新建密钥点击右上角头像,点击Settings然后点击左侧最下面的Developersettings,然后选择Personalaccesstokens,点击Generatenewtoken新建按照下面设置,然后点击最下面的Generatenewtoken然后保存好新生成的token二、导入KeepAliveE5代码到自己的储存库打开git
在oozie中运行配置单元操作时出现以下错误:015-12-2019:48:40,368WARNHiveActionExecutor:523-SERVER[sandbox.hortonworks.com]USER[root]GROUP[-]TOKEN[]APP[oozie_hive_root]JOB[0000013-151220142557945-oozie-oozi-W]ACTION[0000013-151220142557945-oozie-oozi-W@oozie_hive_root]LauncherERROR,reason:Mainclass[org.apache.oozie.
我有以下shell脚本:DATE=date+"%d%b%y"-d"-1days"如何将DATE传递给Java操作? 最佳答案 您可以捕获shell脚本的输出并将其传递给java操作。在shell脚本中,回显类似“dateVariable=${DATE}”的属性并在shell操作中添加捕获输出元素。这将使您可以从shell脚本捕获dateVariable。在java操作中,您可以将捕获的变量作为参数传递为${wf:actionData('shellAction')['dateVariable']}其中shellAction是shell
我是Hive和Oozie的新手。我正在尝试通过Oozie运行Hive脚本。这是我得到的错误。Error:E0701:E0701:XMLschemaerror,cvc-complex-type.2.4.c:Thematchingwildcardisstrict,butnodeclarationcanbefoundforelement'hive'.这是我的workflow.xml:${jobTracker}${nameNode}mapred.job.queue.namedefaultoozie.hive.defaults/home/hduser/hive/conf/hive-site.xm
如何在apacheSparkScala的输出目录中存储从以下操作生成的结果:计数?valcountval=data.map((_,"")).reduceByKey((_+_)).count以下命令不起作用,因为计数未存储为RDD:countval.saveAsTextFile("OUTPUTLOCATION")有什么方法可以将countval存储到本地/hdfs位置? 最佳答案 @szefuf说的是正确的,在count之后你有一个Long,你可以用任何你想要的方式保存它。如果您想使用.saveAsTextFile()将其保存为RDD
我正在尝试通过Oozie运行hive操作。我的workflow.xml如下:${jobTracker}${nameNode}oozie.hive.defaults${hiveConfigDefaultXml}${hiveQuery}OUTPUT=${StagingDir}Hivefailed,errormessage[${wf:errorMessage(wf:lastErrorNode())}]这是我的job.properties文件:oozie.wf.application.path=${nameNode}/user/${user.name}/hiveQueryoozie.libpa
我需要安排一个与安全hbase交互的oozieJava操作,因此我需要为Java操作提供hbase凭据。我使用的是安全的hortonworks2.2环境,我的工作流XML如下${jobTracker}${nameNode}com.test.hbase.TestHBaseSecure${arg1}Javafailed,errormessage[${wf:errorMessage(wf:lastErrorNode())}]我还修改了oozie属性以包含HbaseCredentials类oozie.credentials.credentialclasses=hcat=org.apache.o