草庐IT

conf_dir

全部标签

hadoop - 如何覆盖 mapred-site.xml 中的 mapred.local.dir?

我没有对mapred-site.xml中mapred.local.dir指定的目录的写入权限(也没有对mapred-site.xml的写入权限)有没有一种方法可以在每个session基础上覆盖此属性用于我的Hive作业? 最佳答案 您可以尝试通过执行以下查询在Hivesession中设置它:setmapred.local.dir='somedir';这应该有效。另一种选择是更改Hive引用的mapred-site.xml。确保配置未标记为最终配置。在这种情况下,它不能被覆盖。 关于had

hadoop - 启动 Hive 时出错 : java. lang.NoClassDefFoundError: org/apache/hadoop/hive/conf/HiveConf

我已经下载了Hive的最新稳定版本,当我启动/usr/local/hive/bin/hive时它给我这个错误:Exceptioninthread"main"java.lang.NoClassDefFoundError:org/apache/hadoop/hive/conf/HiveConfatjava.lang.Class.forName0(NativeMethod)atjava.lang.Class.forName(Class.java:264)atorg.apache.hadoop.util.RunJar.main(RunJar.java:149)Causedby:java.lan

hadoop - hadoop书籍示例中的conf文件

我开始使用hadoop,安装了1.1.1版本并运行了“Hadoop权威指南”中的示例5-3。它确实打印出一些配置属性,但我无法在hadoop安装或示例代码中找到那些xml文件。以下代码假定添加到配置的xml文件存在于某处,但我找不到它们。编辑:mapred-site.xml和hdfs-site.xml在hadoop安装的conf文件夹中,但它们是空的。所以我认为它不会使用它们。构建本书示例后,我转到包含ch-05.jar的第5章目录并运行以下命令:$asd>hadoopjarch05-3.0.jarConfigurationPrinterpublicclassConfiguration

java - dfs.data.dir : Failed to set permissions of path:\tmp\hadoop-user\dfs\data to 0755 中的无效目录

我是hadoop框架的新手,目前我正在处理大数据项目,在Windows7中使用cygwin、hadoop-0.19.1、eclipse-3.3.1(Europa)。现在我正在尝试从hadoop-0.19进行更改.1到hadoop-1.2.1version.i如下配置hadoop-1.2.1核心站点.xml:fs.default.namehdfs://localhost:9100hdfs.xmldfs.replication1mapred-site.xmlmapred.job.trackerlocalhost:9101但是我在启动数据节点时出错,如下所示$bin/hadoopdatano

hadoop - 使用 HDFS 而不是 spark.local.dir

试图理解为什么Spark需要本地机器上的空间!有办法解决吗?我一直遇到“设备上没有剩余空间”。我知道我可以将“spark.local.dir”设置为以逗号分隔的列表,但有没有办法改用HDFS?我正在尝试合并两个巨大的数据集。在较小的数据集上,Spark是MapReduce的对手,但在我用这些巨大的数据集证明之前,我不能宣布胜利。我没有使用yarn。此外,我们的网关节点(又名边缘节点)不会有很多可用空间。有解决办法吗? 最佳答案 当groupByKey操作时,Spark只是写入tmpDir序列化分区。它是普通文件(请参阅Shuffle

hadoop - [hdfs]如何为每个datanode配置不同的dfs.datanode.data.dir?

我使用ambari来设置hadoop集群。但是当我配置hdfs的配置时。我发现如果我修改dfs.datanode.data.dir,configure会在所有datanodes上生效...如何为每个数据节点配置不同的配置?比如机器A有两block磁盘,分别挂载到/data1、/data2但是机器B只有一个盘,挂载到/data1所以我想将机器A的dfs.datanode.data.dir配置为“/data1,/data2”。但只有机器B的“/data1” 最佳答案 不存在的HDFS目录将被忽略。都放进去,没关系。

configuration - HBaseConfiguration 不读取我在 ${HBASE_HOME}/conf/hbase-site.xml 中设置的值

${HBASE_HOME}/conf/hbase-site.xml有下一个值:hbase.zookeeper.quorumhd1“hd1”主机名设置在“/etc/hosts”中,ping正常...使用这个简单的Java程序:importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.hbase.HBaseConfiguration;publicclassTestConfigurator{/***@paramargs*/publicstaticvoidmain(String[]args){Configuration

java - java.lang.NoSuchMethodError:org.apache.hadoop.conf.Configuration.addDeprecation(Ljava/lang/String; [Ljava/lang/String;)

我正在使用Java/Eclipse/Hadoop2.2.0(带有所有必要的jar)在Ubuntu上使用以下代码运行示例MapReduce任务(本地单节点),但遇到了异常(下面的stacktrace)。我可以从ubuntu控制台在Hadoop中运行示例字数示例。码:importjava.io.IOException;importjava.util.StringTokenizer;importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.fs.Path;importorg.apache.hadoop.io.IntW

hadoop - 失败后hadoop namenode dirs是否同步?

在这种情况下会发生什么:Namenode正在写入两个不同驱动器上的两个目录,一个是本地的,另一个(远程)是mounted。现在,namenode失败了,我们在远程机器上启动namenode进程(它有原始namenode数据的副本,所以它是安全的)并更改所有datanodes上的namenode的ip。一段时间后,我们设法使原来的名称节点与之前的配置完全一致。我们停止远程机器上的名称节点进程。现在,本地fs.name.dir是否会与挂载的同步(我的意思是在挂载目录上累积的差异,而原始名称节点已关闭)还是名称节点数据一致性会出现问题? 最佳答案

windows - 映射减少错误 : Failed to setup local dir

我在Windows8上安装的hadoop上运行mapreducewordcount示例。我收到如下错误。这听起来像是一个安全许可问题。但我不太确定。我在yarn-site.xml文件中添加了一个属性yarn.nodemanager.local-dirsc:\hadoop\tmp-nm任何想法都会很有帮助!15/07/1511:01:54INFOclient.RMProxy:ConnectingtoResourceManagerat/0.0.0.0:803215/07/1511:01:55WARNmapreduce.JobResourceUploader:Hadoopcommand-li