草庐IT

Hadoop-Connector

全部标签

hadoop - M/R 作业提交失败,错误为 : Could not find Yarn tags property > (mapreduce. job.tags)

我在运行map/reduce作业时遇到以下异常。我们通过oozie提交map/reduce作业。FailingOozieLauncher,Mainclass[org.apache.oozie.action.hadoop.JavaMain],main()threwexception,CouldnotfindYarntagsproperty(mapreduce.job.tags)java.lang.RuntimeException:CouldnotfindYarntagsproperty(mapreduce.job.tags)atorg.apache.oozie.action.hadoop

hadoop - 在java代码中找到hive-site.xml的位置

我想在我的java程序中传递hive-site.xml文件的位置。在java代码中自动找出此文件位置的最佳方法是什么?我不想硬编码到/etc/hive/conf/hive-site.xml的路径以用于cloudera分发 最佳答案 默认情况下,HadoopConfiguration构造函数会在CLASSPATH中的目录中搜索“blahblah-site.xml”配置文件。如果它没有找到它们,那么它将恢复为硬编码的“默认”值,没有任何警告(!)。因此请确保CLASSPATH在前面包含适当的目录,例如/etc/hadoop/conf/:

Hadoop环境设置

我正在尝试在我的ubuntu15.4机器上安装hadoop,但每次都找不到Hadoop命令。我已经在hadoop/conf中配置了所有内容,我的.bashrc条目是:exportHADOOP_HOME=/opt/hadoopexportPATH=$PATH:$HADOOP_HOME/bin当我尝试echo$PATH时,结果是:/usr/local/bin:/usr/bin:/bin:/usr/local/games:/usr/games它指向usr/local。我与这个位置无关。echo$HADOOP_HOME没有任何结果。如何解决这个问题? 最佳答案

hadoop - 消息 [JA002 : SIMPLE authentication is not enabled. 可用:[ token ]]

我在运行Oozie作业时遇到以下错误。命令:ooziejob-ooziehttp://10.xxx.xx.xx:11000/oozie/-log0000017-151029172404066-oozie-oozi-W日志:2015-11-2411:50:23,469INFOActionStartXCommand:543-SERVER[hostname.abc.com]USER[oozie]GROUP[-]TOKEN[]APP[sqoop-wf]JOB[0000017-151029172404066-oozie-oozi-W]ACTION[0000017-151029172404066-

hadoop - 在没有主键的情况下使用 pig 删除重复项

我是hadoop的新手,我有一个用例,其中有3列名称、值、时间戳。数据是,逗号分隔并且是csv格式,我需要检查重复项并使用pig删除它们。我怎样才能做到这一点。 最佳答案 您可以使用pigDISTINCT函数来删除重复项。请引用这个link了解DISTINCT函数。正如您所说,您的数据驻留在HIVE表中,并且您想通过pig访问这些数据,您可以使用HCatLoader()通过pig访问HIVE表。HCatalog可用于外部和内部HIVE表。但是在使用这个功能之前,请确认你的集群已经配置了HCatalog。如果您使用的是Hadoop2.

hadoop - 在 Hadoop 2.6.0 中运行自定义 Speculator

我正在编写我的自定义推测器,我查看了文档,默认情况下是“DefaultSpeculator.java”并在类“MRAppMaster.java”(函数createSpeculator())中设置在Hadoop的核心。我想知道您是否可以在执行我的工作时在运行时更新/更改投机者,因为我需要在大约5个投机者之间进行测试。谢谢!!! 最佳答案 可以在集群范围或每个作业的基础上为map任务和reduce任务打开和关闭推测执行。推测器在MRAppMaster(Map-ReduceApplicationMaster)中实例化。正如您在问题中提到的

hadoop - HDFS NFS 网关 "No groups available for user"警告

我正在使用NFS网关服务将一些数据提取到HDFS(CDH5.4.5)中。一切似乎都很好,直到我收到一条警告消息,通知我日志记录目录的可用空间非常低。我快速查看了大日志文件:sudofind/var/log-typef-size+100000k-execls-lh{}\;|awk'{print$9":"$5}'...并注意到一个名为/var/log/hadoop-hdfs/hadoop-cmf-hdfs-NAMENODE-[fqdn-of-name-node].log.out的34GB文件。快速浏览内部显示几乎完全由以下警告组成:2015-11-3013:41:15,535WARNorg

hadoop - Map Reduce在eclipse中执行

谁能告诉我如何在Eclipse的参数选项卡中设置HDFS文件路径。这样下面的代码就不会给出超出索引的异常。FileInputFormat.addInputPath(job,newPath(otherArgs[0]));FileOutputFormat.setOutputPath(job,newPath(otherArgs[1])); 最佳答案 您需要使用运行配置。右键单击该程序,转到运行配置,使用java应用程序。选择正确的项目和带有main函数的正确程序后,您需要转到VMArguments并传递参数。

hadoop - 在 Pig 中加载文件并将其转换为带分隔符的一行

我需要你的帮助来输出我在Pig中加载的文件,其中包含如下数据:AAAA,message1BBBB,message2CCCC,message3DDDD,message4我需要做的就是得到这样的输出AAAA,message1,BBBB,message2,CCCC,message3,DDDD,message4此输出我将在其他pigudf之后使用它..谢谢你的帮助 最佳答案 输入:AAAA,message1BBBB,message2CCCC,message3DDDD,message4pig脚本:A=LOAD'input.csv'USINGP

hadoop - 无法从主机访问到cloudera WEBHDFS( guest )

我已经阅读了所有这些链接中的WebHdfslink1link2link3使用telnet检查-端口已打开在cloudera(virtualbox)中进行必要的设置以启用webhdfs直接在cloudera上进行测试:[cloudera@quickstart~]$curl-i-L"http://10.0.0.88:50070/webhdfs/v1/user/cloudera/testdir/testFile?op=OPEN"HTTP/1.1307TEMPORARY_REDIRECThttp://quickstart.cloudera:50075/webhdfs/v1/user/cloud