草庐IT

hadoop - 什么是 Mapr Warden?

我正在玩MaprSandbox,我不明白MaprWarden应用程序的作用是什么。Mapr网站包含对配置文件的引用,但没有程序本身的描述。 最佳答案 Warden是一个轻型Java应用程序,它在集群中的所有节点上运行并协调集群服务。Warden在每个节点上的工作是启动、停止或重新启动适当的服务,并为它们分配正确数量的内存。Warden广泛使用本指南ZooKeeper部分中讨论的znode抽象来监视集群服务的状态。Warden配置包含在warden.conf文件中,它以::的形式列出服务三元组。此三元组的节点数元素控制可以在集群上运行

Hadoop : java. io.IOException : No valid local directories in property: mapred. local.dir

当我运行hadoop作业时,它失败并显示以下堆栈跟踪:11/10/0613:12:49INFOmapred.FileInputFormat:Totalinputpathstoprocess:111/10/0613:12:49INFOmapred.JobClient:Cleaningupthestagingareahdfs://localhost:54310/app/hadoop/tmp/mapred/staging/Har/.staging/job_201110051450_000711/10/0613:12:49ERRORstreaming.StreamJob:ErrorLaunch

Hadoop Spark (Mapr) - AddFile 它是如何工作的

我想了解hadoop是如何工作的。假设我在hdfs上有10个目录,它包含100个我想用spark处理的文件。在书中-使用Spark进行快速数据处理这要求文件在集群中的所有节点上都可用,这并不是什么大问题本地模式的问题。在分布式模式下,你会想要使用Spark的addFile功能,用于将文件复制到集群中的所有机器。我无法理解这一点,将在每个节点上创建文件副本。我想要的是它应该读取该目录中存在的文件(如果该目录存在于该节点上)抱歉,我有点困惑,如何在spark中处理上述情况。问候 最佳答案 Thesectionyou'rereferrin

java - 错误 :(63, 40) java : incompatible types: org. apache.hadoop.mapreduce.Job 无法转换为 org.apache.hadoop.mapred.JobConf

我只是在intelljIDE中运行一个简单的hadooop程序。但是当我尝试编译时出现错误$Error:(63,40)java:incompatibletypes:org.apache.hadoop.mapreduce.Jobcannotbeconvertedtoorg.apache.hadoop.mapred.JobConf这是我的这个小程序的代码:importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntWritable;impor

hadoop - pig 忽略 maxReducers 并使用 mapred.reduce.tasks 代替

我的pig脚本生成了大约5个MR作业。当它开始执行时,pig打印:BytesPerReducer=1000000000maxReducers=999并继续创建一个只有一个reducer的MR作业:NeitherPARALLELnordefaultparallelismissetforthisjob.Settingnumberofreducersto1但是,对于从同一脚本生成的后续作业,它不会打印此行,并且在其中一个中创建mapred.reduce.tasksreducers,在我的集群中是4992.这是一个已知错误吗?或者我在这里遗漏了什么? 最佳答案

Hadoop on CentOS streaming example with python - permission denied on/mapred/local/taskTracker

我已经能够使用python映射器和缩减器设置流式示例。mapred文件夹位置是/mapred/local/taskTrackerroot和mapred用户都拥有此文件夹和子文件夹的所有权然而,当我运行我的流式传输时,它会创建map但不会减少并给出以下错误无法运行程序/mapred/local/taskTracker/root/jobcache/job_201303071607_0035/attempt_201303071607_0035_m_000001_3/work/./mapper1.py权限被拒绝我注意到,虽然它为mapred/local/taskTracker及其所有子目录提供

java - mapred-site.xml 未覆盖 mapred-default.xml 中的参数

我正在使用Hadoop版本0.20.2(Cloudera发行版cdh3u6)并发现问题。据我了解,如果我在/etc/hadoop/conf/mapred-site.xml中设置一个值,它应该自动覆盖Hadoop默认值。所以我设置了一个变量如下:mapred.child.java.opts-Xmx1024m但是,这没有任何效果。现在,我知道hadoop正在读取该文件,因为如果我将变量设置为final(true),则该设置确实适用于我的工作。但是,据我了解,这不是必需的,因为mapred-site.xml应该在mapred-default.xml之后加载所以它应该简单地覆盖它。您可能会问,

hadoop - 如何覆盖 mapred-site.xml 中的 mapred.local.dir?

我没有对mapred-site.xml中mapred.local.dir指定的目录的写入权限(也没有对mapred-site.xml的写入权限)有没有一种方法可以在每个session基础上覆盖此属性用于我的Hive作业? 最佳答案 您可以尝试通过执行以下查询在Hivesession中设置它:setmapred.local.dir='somedir';这应该有效。另一种选择是更改Hive引用的mapred-site.xml。确保配置未标记为最终配置。在这种情况下,它不能被覆盖。 关于had

hadoop - Hue 不想为用户创建主目录 - MapR

我使用MapR,我想从LDAP创建用户。我可以创建我的用户,但Hue不想创建关联文件夹,我收到此消息:“获取当前用户的用户信息时出错,***(错误500)”我尝试使用本地用户,但这是同样的问题...我只有mapr用户,当我手动创建文件夹时没问题,但是当我想更改组或所有者时,我收到此消息:“无法为路径/user/test设置所有者/组mapr/默认值(错误500)”我不明白为什么我有这些问题....请帮帮我。谢谢。编辑:我有一些消息,我用MapRSandbox测试过,我遇到了同样的问题。使用Cloudera或Hortonworks的Hue可以正常工作,当我使用Hue创建用户时,会自动创建

hadoop - CDH5 上的启动/停止 hadoop hdfs/mapred 脚本在哪里

CDH4的文档引用了/etc/init.d/hadoop-*脚本,但这些在CDH5中不再存在。我已经仔细阅读了文档,但未能成功找到/理解什么是CDH5等价物。我能找到的最接近的是SCM经理:http://www.cloudera.com/content/cloudera-content/cloudera-docs/CM5/latest/Cloudera-Manager-Administration-Guide/cm5ag_agents.html将不胜感激新流程(/es)的指针和解释。 最佳答案 我在Cloudera用户的邮件列表上收