草庐IT

IFA_LOCAL

全部标签

hadoop - Pig on local 模式与 pig-without hadoop.jar 的区别

我想知道如果我在本地模式下使用pig(内部调用Mapreduce)与使用PIG-withouthadoop.jar文件相比,性能增益或损失是什么?PIG-withouthadoop.jar真的不用hadoop吗???如果我只想使用没有集群的Pig,比如设计数据流,那么我应该使用什么?Pig在本地模式或pig-withouthadoop.jar文件??目前我已经使用pig本地模式编写了我的脚本,并且在尝试在服务器中部署并在本地模式下设置PIG时,我想我还需要在设置PIG_HOME变量之前在环境变量中设置HADOOP_HOME请指教..提前致谢。:) 最佳答案

matlab - 无法使用 MATLAB MapReducer 2014b 中的 'local' 配置文件启动并行池

我正在使用here中的示例作为MATLAB2014b中的“使用MapReduce计算平均值”。当我运行示例时,出现以下错误:Startingparallelpool(parpool)usingthe'local'profile...Errorusingmapreducer(line96)Failedtostartaparallelpool.(Forinformationinadditiontothecausingerror,validatetheprofile'local'intheClusterProfileManager.)Erroringcmr(line34)mr=mapredu

hadoop - 有人在 hadoop 流媒体作业中使用过 mapred.job.tracker=local 吗?

在过去的几周里,我们每天都使用hadoopstreaming来计算一些报告。最近我们对我们的程序进行了更改,如果输入大小小于10MB,我们将在JobConf中设置mapred.job.tracker=local,然后作业将在本地运行。但是昨晚,许多作业都失败了,runningJob.getJobState()返回了状态3。我不知道为什么,stderr里什么也没有。我无法用谷歌搜索与此问题相关的任何内容。所以我想知道我是否应该在生产模式下使用mapred.job.tracker=local?也许它只是hadoop提供的开发中的调试解决方案。有人知道吗?任何信息,任何信息,谢谢。

maven - 使用 Local Runner 在独立模式下运行 Hadoop 2.4.0 作业的单元测试

在使用以前版本的Hadoop时,我通常会为整个作业(映射器和缩减器)构建junit测试,并通过调用maven或直接从IDE本身运行测试。系统上的任何地方都没有安装hadoop。我使用以下属性来确保使用本地进程内运行器:config.set("mapred.job.tracker","local");config.set("fs.default.name","file:///test-fs");这些测试运行成功。我升级到较新版本的Hadoop(2.4.0)以利用新的API。我希望能够像以前一样用我的单元做同样的事情。我现在使用的属性是:config.set("fs.default.nam

scala - 如何让 Spark slave 在 Hadoop+Spark 集群中使用 HDFS 输入文件 'local'?

我有一个由9台计算机组成的集群,上面安装了ApacheHadoop2.7.2和Spark2.0.0。每台计算机都运行一个HDFSdatanode和Sparkslave。其中一台计算机还运行HDFSnamenode和Sparkmaster。我已经在复制=2的HDFS中上传了几TB的gz存档。事实证明,某些文件已损坏。我想找到他们。看起来“gunzip-t”可以提供帮助。所以我试图找到一种在集群上运行Spark应用程序的方法,以便每个Spark执行程序测试存档“本地”(即,其中一个副本位于该执行程序运行的同一台计算机上)只要它是可能的。以下脚本运行,但有时Spark执行程序会处理HDFS中

hadoop - 在配置单元 "Unable to retrieve URL for Hadoop Task logs. Does not contain a valid host:port authority: local"上出现错误

在涉及mapreduce的hive上执行任何查询时,我收到此错误。“UnabletoretrieveURLforHadoopTasklogs.Doesnotcontainavalidhost:portauthority:local” 最佳答案 报告的异常出现在旧版本的Hadoop中(即YARN之前)。大多数情况下,您使用的是旧版本的Hadoop。当mapred.job.tracker的值出现异常参数在local中设置为“mapred-site.xml”相反,它应该是:. 关于hadoop

macos - 错误:/usr/local/Cellar/sqoop/1. 4.6/../hadoop不存在!请将 $HADOOP_COMMON_HOME 设置为 Hadoop 安装的根目录

我在Mac上使用brew安装了Hadoop,然后进行了配置。然后我安装了Sqoop,当我尝试运行Sqoop时出现以下错误:错误:/usr/local/Cellar/sqoop/1.4.6/../hadoop不存在!请将$HADOOP_COMMON_HOME设置为Hadoop安装的根目录。我的Hadoop运行良好,我什至在~/.bash_profile和sqoop-env.sh中都设置了HADOOP_COMMON_HOME的路径这是我的sqoop环境文件:#LicensedtotheApacheSoftwareFoundation(ASF)underoneormore#contribut

apache-spark - 亚马逊电子病历 : Spark - SparkException java IOException: Failed to create local dir in/tmp/blockmgr*

我有一个带有Spark的AWSEMR集群。我可以连接到它(spark):通过SSH连接到主节点后从主节点来自另一个AWSEMR集群但无法连接到它:从我的本地机器(macOSMojave)来自非emr机器,如Metabase和Redash我已阅读thisquestion的答案.我已经检查过所有节点上的文件夹权限和磁盘空间都没有问题。我的假设是我面临着类似的问题JamesWierzba在评论中提问。但是,我没有足够的声誉在那里添加评论。此外,考虑到它特定于AWSEMR,这可能是一个不同的问题。SSH连接到主节点后连接工作正常。#SSHedtomasternode$ssh-i~/identi

ubuntu - 安装hadoop时如何修复 "Error: Could not find or load main class ” -Djava.library.path=.usr.local.hadoop.lib”

我正在尝试在Ubuntu上安装Hadoop2.9.2。我在~/.bashrc和env.sh文件中设置了相同的JAVA_HOME路径。在hadoop_store下使用正确的路径为数据节点和名称节点创建了两个单独的目录。Java版本是“java-11-openjdk-amd64”。在hadoop文件系统中格式化namenode时,我仍然面临错误。请帮助我解决它。指向我一直遵循其说明的页面的链接。https://www.digitalvidya.com/blog/install-hadoop-on-ubuntu-and-run-your-first-mapreduce-program/这是错

hadoop - Pig local 与 mapreduce 模式性能比较

我已经使用Cloudera管理器CDH4设置了一个3节点Hadoop集群。当在mapreduce模式下运行Pig作业时,对于相同的数据集,它花费的时间是本地模式的两倍。这是预期的行为吗?另外,是否有任何文档可用于mapreduce作业的性能调整选项?非常感谢您的帮助! 最佳答案 这可能是因为您使用的是玩具数据集,并且mapreduce的开销大于并行化的好处 关于hadoop-Piglocal与mapreduce模式性能比较,我们在StackOverflow上找到一个类似的问题: