草庐IT

conf_dir

全部标签

Hadoop:/usr/lib/hadoop-0.20.2/conf/slaves: 没有那个文件或目录

我完全按照hadoop官网上的步骤操作,但是总是报如下错误:startingnamenode,loggingto/home/videni/Tools/hadoop-1.0.3/libexec/../logs/hadoop-videni-namenode-videni-Latitude-E6400.outcat:/usr/lib/hadoop-0.20.2/conf/slaves:Nosuchfileordirectorycat:/usr/lib/hadoop-0.20.2/conf/masters:Nosuchfileordirectorystartingjobtracker,logg

hadoop - Oozie 未注册 "mapred.input.dir.recursive"属性

我在使用Oozie时遇到问题。它不会从Oozie工作流中注册mapred.input.dir.recursive属性。这给我带来了问题,因为我的mapred.input.dir包含文件以及包含更多文件的子目录。我广泛地搜索了解决方案,但没有成功找到。有什么想法、意见、建议吗? 最佳答案 mapred.input.dir.recursive已弃用。相反,使用mapreduce.input.fileinputformat.input.dir.recursive 关于hadoop-Oozie未

Hadoop 2.9.0 - hadoop namenode -format 和 hdfs-site.xml dfs.namenode.name.dir

我的第一个问题,我会尽量不把事情搞砸:)出于学习目的,我正在4节点集群上安装Hadoop2.9.0。我已经按照官方ApacheHadoop2.9.0文档和一些谷歌页面开始安装/配置名称节点。我像这样编辑了位于$HADOOP_HOME/etc/hadoop目录下的hdfs-site.xml:dfs.namenode.name.dirfile:///apps/hdfs/namenode/datadfs.datanode.data.dirfile:///apps/hdfs/datanode/datadfs.namenode.checkpoint.dirfile:///apps/hdfs/na

hadoop - 即使在设置 KRB5_CONFIG 之后,Kerberos 仍然使用默认的/etc/krb5.conf 文件

我无权更改/etc/krb5.conf中的文件,因此我设置了KRB5_CONFIG。exportKRB5_CONFIG=/home/user/keytab/krb5.conf回显此变量验证此路径已设置,但当我尝试kinit时它仍在使用/etc/krb5.conf文件。我还需要设置什么吗?我需要设置任何特定权限或重新启动任何服务吗?我这样做的原因是Hadoop不支持非默认领域。 最佳答案 您可以通过传递参数指向您所在位置的krb5.conf-Djava.security.krb5.conf=/home/user/keytab/krb5

hadoop - 色调配置错误 -/etc/hue/conf.empty - 检测到潜在的错误配置

您好专家,我是Hadoop、linux环境和Cloudera的新手。我在我的机器上安装了clouderavm5.7,并使用SQOOP将mysql数据导入到hdfs。我正在尝试使用impala对这些数据执行一些查询。所以,我尝试启动HUE。当我启动时,我可以看到有一些配置错误。错误:检测到潜在的错误配置。修复并重新启动Hue。我已采取的解决此问题的步骤1)我使用以下命令重新启动了HUE:sudoservicehuestopsudo服务色调启动2)我尝试查看以下目录文件./etc/hue-我可以看到有两个配置文件夹。一个是config,另一个是config.empty。我无法弄清楚问题所在

amazon-web-services - 使用 Scala 读取 .aws/credentials 文件以获取来自 spark 的 hadoop conf 设置

我如何才能读取位于.aws目录下的credentials文件中的不同aws配置文件?只想让我的应用程序读取访问key和secret,如下所示,但不确定如何将这一点指向凭证文件。objectS3KeyStoreextendsSerializable{privatevalkeyMap=Map(String,S3Key)defload(key:String)(implicitsc:SparkContext)=keyMap.get(key)match{caseSome(k)=>valhc=sc.hadoopConfigurationhc.set("fs.s3a.awsAccessKeyId",

hadoop - 是否可以在驱动程序中向 conf 对象添加属性?

我的MR工作是这样获得的:Jobjob=newJob(conf,"helloWorld");在conf上设置的任何值都可以跨节点使用。但我不确定以下是否有效:在MAP中conf.set("hello","world");在驱动程序中if(job.waitForCompletion(true)){System.out.println(conf.get("hello"));}在map/reduce阶段对conf所做的修改是否会在驱动程序中可见? 最佳答案 当您提交作业时,您还提供了配置,如您所说:Jobjob=newJob(conf,"

linux - 安装和获取当前的 dfs.name.dir 和 dfs.data.dir 值

我没有在hdfs-site.xml文件中设置dfs.name.dir和dfs.data.dir值没有设置。他们会怎样?有趣的是,他们默认接受什么值?(如何接收他们的当前值?) 最佳答案 dfs.name.dir的默认值为${hadoop.tmp.dir}/dfs/data和dfs.data.dir是${hadoop.tmp.dir}/dfs/data。如果hadoop.tmp.dir的值未使用-D选项或配置文件设置,则默认值为/tmp/hadoop-${user.name}user.name是您用来登录系统的用户名。对于所有默认值,

hadoop - hadoop.tmp.dir 到底应该设置在哪里? core-site.xml 还是 hdfs-site.xml?

我问的是Hadoop2.x系列。互联网上对此有相互矛盾的建议。喜欢这个case他要求在core-site.xml和这个SOanswer中指定它其中提到hadoop.tmp.dir设置在hdfs-site.xml中。应该放在哪个位置? 最佳答案 hadoop.tmp.dir(Abaseforothertemporarydirectories)属性,需要在core-site.xml中设置,就像exportinLinux例如:dfs.namenode.name.dirfile://${hadoop.tmp.dir}/dfs/name您可以

hadoop - 水槽的 Spool Dir 可以在远程机器上吗?

每当新文件到达特定文件夹时,我都试图从远程机器获取文件到我的hdfs。我在flume中遇到了spooldir的概念,如果spooldir在运行flumeagent的同一台机器上,它工作正常。有什么方法可以在远程机器上配置假脱机目录吗??请帮忙。 最佳答案 您可能知道flume可以产生多个实例,即您可以安装多个flume实例,这些实例在它们之间传递数据。所以回答你的问题:不,水槽不能访问远程假脱机目录。但是你可以安装两个代理,一个在有spool目录的机器上,一个在hadoop节点上。第一个将从假脱机中读取并通过avrorpc将其传递给