草庐IT

action_list

全部标签

hadoop - Oozie 3.1.3 中的 Hive Action

我是Hive和Oozie的新手。我正在尝试通过Oozie运行Hive脚本。这是我得到的错误。Error:E0701:E0701:XMLschemaerror,cvc-complex-type.2.4.c:Thematchingwildcardisstrict,butnodeclarationcanbefoundforelement'hive'.这是我的workflow.xml:${jobTracker}${nameNode}mapred.job.queue.namedefaultoozie.hive.defaults/home/hduser/hive/conf/hive-site.xm

hadoop - 如何从 `yarn application -list` 访问 Tracking-URL?

我想查看我在yarn中看到的某个作业的yarnwebUI。当我做yarnapplication-list我可以看到跟踪URL.所以,我在chrome中导航到那个页面,它给了我这样的错误:The172.12.15.181pageisn'tworking.172.12.15.181didn'tsendanydata.我显然已经通过ssh进入了应该允许我看到它的机器。另外,这份工作肯定在status=RUNNING在yarn中。那么,是什么阻止我在这个url上看到yarnweb用户界面?我这样做正确吗?谢谢。 最佳答案 在yarnappl

scala - 如何使用scala在apache spark中存储一个 Action 的结果

如何在apacheSparkScala的输出目录中存储从以下操作生成的结果:计数?valcountval=data.map((_,"")).reduceByKey((_+_)).count以下命令不起作用,因为计数未存储为RDD:countval.saveAsTextFile("OUTPUTLOCATION")有什么方法可以将countval存储到本地/hdfs位置? 最佳答案 @szefuf说的是正确的,在count之后你有一个Long,你可以用任何你想要的方式保存它。如果您想使用.saveAsTextFile()将其保存为RDD

Python两个一维列表 (list) 转换为二维列表 (list)

说明,输入list1=[1,3]         list2=[2,4]记list1为横坐标列表,list2为纵坐标列表,长度一致,输出两个location:[1,2]和[3,4],即输出如下                  list3=[[1,2],[3,4]] list1=[1,3]list2=[2,4]方法1、使用for语句,新建二维列表list3=[[list1[i],list2[i]]foriinrange(len(list1))]print(list3,type(list3))输出结果: list3:[[1,2],[3,4]]        type: 方法2、使用zip语句,缺

scala - 从 spark 中列出/检索 HDFS 分区作为 Map(String,List(String))

我想知道是否有某种方法可以利用spark.hdfs文件夹结构中已经存在的元数据信息。例如,我正在使用以下代码将数据写入hdfs,valcolumns=Seq("country","state")dataframe1.write.partitionBy(columns:_*).mode("overwrite").save(path)这会生成类似的目录结构,path/country=xyz/state=1path/country=xyz/state=2path/country=xyz/state=3path/country=abc/state=4我想知道的是使用spark,有没有办法将所有

hadoop - 在 Oozie 中运行 Hive Action 时出错

我正在尝试通过Oozie运行hive操作。我的workflow.xml如下:${jobTracker}${nameNode}oozie.hive.defaults${hiveConfigDefaultXml}${hiveQuery}OUTPUT=${StagingDir}Hivefailed,errormessage[${wf:errorMessage(wf:lastErrorNode())}]这是我的job.properties文件:oozie.wf.application.path=${nameNode}/user/${user.name}/hiveQueryoozie.libpa

hadoop - 在 oozie Java Action 中传递 HBase 凭据

我需要安排一个与安全hbase交互的oozieJava操作,因此我需要为Java操作提供hbase凭据。我使用的是安全的hortonworks2.2环境,我的工作流XML如下${jobTracker}${nameNode}com.test.hbase.TestHBaseSecure${arg1}Javafailed,errormessage[${wf:errorMessage(wf:lastErrorNode())}]我还修改了oozie属性以包含HbaseCredentials类oozie.credentials.credentialclasses=hcat=org.apache.o

hadoop - Spring XD动态部署 list

我一直在大量阅读SpringXD文档,但无法真正理解我想实现的与HadoopYARN相关的两件事。也许他们还不被支持或永远不会被支持——可能是因为我遗漏了一些让我的场景变得不合理的东西......在HadoopYARN中,ApplicationMaster可以请求在特定主机上分配容器,即“机架感知”。这允许在HDFS上的数据存储位置附近执行处理。这种功能可以作为流部署list中的评估属性公开吗?请注意,我不是在谈论分区流,其中相同的容器为流中的所有模块处理相同的消息。我想在一组容器上部署流中间的多个模块实例——这些容器还可以保存我预先存在的大型静态数据的片段。我希望根据评估规则为每次调

hadoop - Hive 操作失败,主类 [org.apache.oozie.action.hadoop.HiveMain],退出代码 [40000]

我是这方面的新手,所以我完全有可能错过一些基本的东西。我正在尝试运行从协调器启动的Oozie工作流。协调器等待文件出现在目录中。工作流包含运行此脚本的Hive操作:CREATEexternalTABLEIFNOTEXISTSdaily_dump(idbigint,creationdatetimestamp,datelastupdatedtimestamp,data1string,data2string)LOCATION'/data/daily_dump';FROMdaily_dumpdINSERTOVERWRITETABLEmydata_orcPARTITION(id,datelast

json转换(json与对象互转、json与list互转、JSONObject与Map互转)

目录一、json与对象互转1、json转自定义对象2、json字符串转JSONObject二、json与list互转1、list转JsonArray类型字符串2、JsonArray类型字符串转list三、JSONObject与Map互转1、Map转JSONObj一、json与对象互转1、json转自定义对象Useruser=JSONUtil.toBean(jsonStr/jsonObj,User.class);//hutoolUseruser=JSON.parseObject(jsonStr,User.class);//com.alibaba.fastjsonUseruser=JSONObje