草庐IT

site2Subscribers

全部标签

hadoop - Cloudera Manager 和 hdfs-site.xml

使用ClouderaManager时,我可以通过以下方式访问hdfs-site.xml文件:ClouderaManager>Cluster>HDFS>Instances>(NameNode,例如)>Processes配置文件>hdfs-site.xml然后URL指向:http://quickstart.cloudera:7180/cmf/process/8/config?filename=hdfs-site.xml这个文件是否可以通过文件系统直接访问,如果可以,它位于何处 最佳答案 ClouderaManager中设置的配置存储在C

java - mapred-site.xml 未覆盖 mapred-default.xml 中的参数

我正在使用Hadoop版本0.20.2(Cloudera发行版cdh3u6)并发现问题。据我了解,如果我在/etc/hadoop/conf/mapred-site.xml中设置一个值,它应该自动覆盖Hadoop默认值。所以我设置了一个变量如下:mapred.child.java.opts-Xmx1024m但是,这没有任何效果。现在,我知道hadoop正在读取该文件,因为如果我将变量设置为final(true),则该设置确实适用于我的工作。但是,据我了解,这不是必需的,因为mapred-site.xml应该在mapred-default.xml之后加载所以它应该简单地覆盖它。您可能会问,

hadoop - 如何覆盖 mapred-site.xml 中的 mapred.local.dir?

我没有对mapred-site.xml中mapred.local.dir指定的目录的写入权限(也没有对mapred-site.xml的写入权限)有没有一种方法可以在每个session基础上覆盖此属性用于我的Hive作业? 最佳答案 您可以尝试通过执行以下查询在Hivesession中设置它:setmapred.local.dir='somedir';这应该有效。另一种选择是更改Hive引用的mapred-site.xml。确保配置未标记为最终配置。在这种情况下,它不能被覆盖。 关于had

java - 配置pentaho的hdfs-vfs来获取hdfs-site.xml

我刚开始使用Pentaho'sHDFSVFS并且对这个项目了解不多。我正在尝试从外部位置读取我的Hadoop配置文件。这似乎适用于除hdfs-site.xml之外的所有文件.尝试通过PentahoHDFSVFS项目与HDFS通信时,故障发生在VFS层。我的直觉告诉我pentaho正在通过一些环境变量或其他外部指针读取这个文件,但我似乎无法在他们的源代码中找到它。当我手动将hdfs-site.xml文件放入已编译的war时一切正常文件,但这对我来说不够,因为我需要将此文件放在外部位置,以便其他进程可以更改它。有没有人处理过这个问题?有人可以让我知道如何告诉pentaho从哪里获取这个文件

hadoop - 如果没有在hdfs-site.xml中定义,namenode和datanode安装在哪里?

我的hdfs-site.xml只有以下内容:dfs.replication1问题。NameNode和DataNode安装在哪里?我在装有Windows10的MSFTSurface笔记本电脑上使用Hadoop3.0.3版本。 最佳答案 在hdfs-default.xmldfs.datanode.data.dir默认值为file://${hadoop.tmp.dir}/dfs/data和dfs.namenode.name。目录file://${hadoop.tmp.dir}/dfs/name并且在core-default.xmlhado

hadoop - 编辑 yarn-site.xml 时需要重新加载 yarn 吗?

我已经在我的集群上编辑了yarn-site.xml。具体来说,我编辑了yarn.scheduler.minimum-allocation-mb设置。我是否需要以某种方式重新加载配置,或者重新启动资源管理器或其他东西才能生效,或者这些配置文件是否会自动监视和重新加载? 最佳答案 是的,你有。您还可以使用Ambari验证这一点。yarn-site.xml文件中的一项编辑会触发某些服务重新启动。YARN就是其中之一 关于hadoop-编辑yarn-site.xml时需要重新加载yarn吗?,我

configuration - HBaseConfiguration 不读取我在 ${HBASE_HOME}/conf/hbase-site.xml 中设置的值

${HBASE_HOME}/conf/hbase-site.xml有下一个值:hbase.zookeeper.quorumhd1“hd1”主机名设置在“/etc/hosts”中,ping正常...使用这个简单的Java程序:importorg.apache.hadoop.conf.Configuration;importorg.apache.hadoop.hbase.HBaseConfiguration;publicclassTestConfigurator{/***@paramargs*/publicstaticvoidmain(String[]args){Configuration

hadoop - 如何在不重启集群的情况下更新 hadoop mapred-site.xml 的配置参数

我想添加/更新以下参数mapred.map.tasks.speculative.executionfalse在hadoop的mapred-site.xml中。如何在不重启集群的情况下执行此操作? 最佳答案 您可以在您的作业配置中设置每个作业。如果您想全局更改此行为,则必须重新启动集群。如果不重新启动,则无法更改它。 关于hadoop-如何在不重启集群的情况下更新hadoopmapred-site.xml的配置参数,我们在StackOverflow上找到一个类似的问题:

jdbc - 在类路径中找不到 hive-site.xml

在运行giraphhiverunner时,我收到有关与hive-site.xml相关的类路径的以下错误,我已经设置了hive-env.sh和bash.bashrc,但错误仍然存​​在。任何帮助如何设置类路径和解决这个错误..??我还需要修改什么吗??我已经尝试过hivejdbcex它的执行没有任何错误..但是在使用jars的hadoop时会出错..如果有任何帮助,将会非常充实..13/01/1611:58:23WARNconf.HiveConf:hive-site.xmlnotfoundonCLASSPATHExceptioninthread"main"java.lang.NullPo

hadoop - Yarn : Make yarn-site. xml 更改对集群中的工作节点有效

我们有一个在HDFS2.7.3上运行的Spark流应用程序,使用Yarn作为资源管理器。运行应用程序时,这两个文件夹:/tmp/hadoop/data/nm-local-dir/filecache/tmp/hadoop/data/nm-local-dir/filecache正在填满磁盘。因此,根据我的研究发现,在yarn-site.xml中配置这两个属性会有所帮助。yarn.nodemanager.localizer.cache.cleanup.interval-ms2000yarn.nodemanager.localizer.cache.target-size-mb2048我已经在每