草庐IT

action-menu

全部标签

hadoop - hadoop 是否需要运行 mahout-in-action 示例?

运行MahoutInAction示例需要hadoop吗?我看到有一个hadoopjar提供了mahout。我一直在使用build-reuters.sh时遇到问题,想知道是否需要单独安装hadoop。谢谢!! 最佳答案 MahoutinAction一书的大部分内容都涉及将ApacheMahout与ApacheHadoop结合使用。所以是的,您最终将需要Hadoop。本书指导您下载并安装Hadoop。Hadoop本身不随Mahout提供,不。但是Mahout的构建系统引用了Hadoop,因此它会自动下载Hadoop之类的依赖项。这是另一

hadoop - 错误 : org. 找不到 apache.oozie.action.hadoop.PigMain

我正在尝试通过oozie工作流执行一个简单的pig脚本,该工作流导入一个pythonjar以及其他一些jar并最终得到如下错误:FailingOozieLauncher,Mainclass[org.apache.oozie.action.hadoop.PigMain],exceptioninvokingmain(),java.lang.ClassNotFoundException:Classorg.apache.oozie.action.hadoop.PigMainnotfoundjava.lang.RuntimeException:java.lang.ClassNotFoundExc

shell - 带有单引号的 Oozie Shell Action 参数被删除

我正在尝试通过一些子工作流配置来运行OozieShellAction作业。在编写配置文件(workflow.xml)时,我将一些变量(来自job.properties文件)用单引号括起来,如:myVar'${myVar}'但是,在Shell脚本中,接收到的参数没有有任何单引号?有什么想法吗? 最佳答案 尝试不加引号。我的变量${myVar} 关于shell-带有单引号的OozieShellAction参数被删除,我们在StackOverflow上找到一个类似的问题:

shell - Oozie——java : command not found - shell action

我正在通过Oozie从shell脚本运行java程序,但出现以下错误java:commandnotfound当我从边缘节点运行shell脚本时,我没有发现任何问题,java类运行时没有任何错误,我也得到了所需的输出。但是,无法运行java命令的是oozie作业。oozie中的所有其他操作都正常执行,但是当它遇到java行时,它会抛出上述错误。我知道Hadoop集群中的所有节点都会安装Java,那么为什么会出现此错误?下面是我的shell脚本中的java命令......java-cp$LOCAL_DIR/libs/integration-tools.jarcom.audit.report

hadoop - Oozie - 从 Hive Action 捕获输出

在Oozie中,我们如何捕获可以在后续HiveAction中进一步使用的第一个HiveAction的输出? 最佳答案 假设您有两个hive表A和B。这里您正在对表A的数据执行一些转换,并希望将数据存储在表B中。为此,您的表B应该在Metastore中定义为外部表。Oozie工作流将在表A中执行转换查询,其输出将作为表B的源存储在表B的表定义中定义的同一目录中。 关于hadoop-Oozie-从HiveAction捕获输出,我们在StackOverflow上找到一个类似的问题:

hadoop - 创建 SPARK RDD(HDFS 上的文件)和调用 Action 时出错

scala>valmanager=sc.textFile("hdfs://localhost:54310/user/training/employee_dir/employeeManager")scala>manager.first错误:java.io.EOFException:EndofFileExceptionbetweenlocalhostis:"localhost.localdomain/127.0.0.1";destinationhostis:"localhost":54310;:java.io.EOFException;Formoredetailssee:http://wi

hadoop - 如何从 Oozie 工作流将参数传递给 Hadoop ToolRunner(或任何 MapReduce Action)

从命令行,可以按如下方式将参数传递给ToolRunner:hadoopjarmyJar.jarcom.Main-Dprop1=prop1value-Dprop2=prop2value我想调用我的MapReduce作业作为来自Oozie的MapReduce操作的一部分。我尝试按如下方式在工作流中定义属性:param1HelloWorld编辑这就是我尝试从我的MapReduce作业中读取参数的方式:Jobjob=newJob();Configurationconf=job.getConfiguration();System.out.println(conf.get("param1"));但

hadoop - Oozie - 通过 Action 配置在 DistCp 上设置策略

我有一个带有distCp操作的工作流,它运行得相当好。但是,现在我正在尝试更改复制策略,但无法通过操作参数来实现。关于这个主题的文档相当薄弱,查看distCpAction执行器的源代码也无济于事。如果从命令行运行distCp我可以使用命令行参数-strategy{uniformsize|dynamic}设置复制策略。使用该逻辑,我尝试在oozie操作中执行此操作。${jobTracker}${nameNode}mapreduce.job.queuename${poolName}-Dmapreduce.job.queuename=${poolName}-Dmapreduce.job.na

hadoop - oozie中执行 Action 后删除hdfs路径

执行类似于在操作前删除的prepare标记的操作后,如何删除hdfs路径。...[JOB-TRACKER][NAME-NODE]......[JOB-XML-FILE][PROPERTY-NAME][PROPERTY-VALUE]...[PIG-SCRIPT][PARAM-VALUE]...[PARAM-VALUE][ARGUMENT-VALUE]...[ARGUMENT-VALUE][FILE-PATH]...[FILE-PATH]...... 最佳答案 pig行动中没有等价物。你基本上有两个选择:在您的pig脚本中添加删除命令添

hadoop - 在 Hadoop 集群上使用 Oozie 运行 Sqoop Action 时出现问题

我正在尝试使用Hadoop集群在Oozie中成功运行sqoop-action。每当我检查作业状态时,Oozie都会返回以下状态更新:ActionID状态分机ID分机状态错误代码0000037-140930230740727-oozie-oozi-W@:start:OK-OK-0000037-140930230740727-oozie-oozi-W@sqoop-loadERRORjob_1412278758569_0002FAILED/KILLEDJA0180000037-140930230740727-oozie-oozi-W@sqoop-load-failOK-OKE0729这让我相