草庐IT

site2Subscribers

全部标签

hadoop - core-site.xml在mapreduce程序中的使用

我见过mapreduce程序使用/添加core-site.xml作为程序中的资源。core-site.xml是什么或如何在mapreduce程序中使用? 最佳答案 来自documentation,除非明确关闭,否则Hadoop默认指定两个资源,从类路径按顺序加载:core-default.xml:hadoop的只读默认值,core-site.xml:给定hadoop安装的站点特定配置Configurationconfig=newConfiguration();config.addResource(newPath("/user/had

hadoop - yarn : yarn-site. xml 更改未生效

我们有一个在HDFS2.7.3上运行的Spark流应用程序,使用Yarn作为资源管理器....在运行应用程序时......这两个文件夹/tmp/hadoop/data/nm-local-dir/filecache/tmp/hadoop/data/nm-local-dir/filecache正在填满,因此磁盘......所以根据我的研究发现,在yarn-site.xml中配置这两个属性会有所帮助yarn.nodemanager.localizer.cache.cleanup.interval-ms2000yarn.nodemanager.localizer.cache.target-si

java - HDFS 复制属性未反射(reflect)在 hfs-site.xml 中定义

我在HDFS上工作,并在hfs-site.xml中将复制因子设置为1,如下所示:dfs.replication1dfs.namenode.name.dir/Users/***/Documnent/hDir/hdfs/namenodedfs.datanode.data.dir/Users/***/Documnent/hDir/hdfs/datanodedfs.permissionsfalse但是当我尝试将文件从本地系统复制到hdfs文件系统时,我发现该文件的复制因子是3。这是在hdfs上复制文件的代码:publicclassFileCopyWithWrite{publicstaticvo

xml - 配置单元-site.xml : The element type "configuration" must be terminated by the matching end-tag "</configuration>"

为了练习/学习,我正在尝试在Ubuntu系统上安装Hive。我正在遵循一组预先编写的说明。它说通过转到$HIVE_HOME并运行bin/hive来测试Hive安装。当我这样做时,我得到了相当大的文本转储,但我认为最重要的一点如下:**[FatalError]hive-site.xml:2787:3:Theelementtype"configuration"mustbeterminatedbythematchingend-tag"".17/05/0610:46:12FATALconf.Configuration:errorparsingconffile:/usr/local/hive/c

hadoop - 无法编辑 hbase-site.xml

我正在使用独立的HBase,因此需要按照-get"ERROR:Can'tgetmasteraddressfromZooKeeper;znodedata==null"whenusingHbaseshell中提供的建议从hbase-site.xml中删除一些属性文件。但是当我尝试编辑“hbase-site.xml”文件时,它说只有读取级别的权限。如何解决? 最佳答案 默认情况下,hbase-site.xml只允许hbase/root用户有写权限,所有其他用户只有读权限。以下是具有权限的示例文件。-rw-r--r--1hbasehadoo

java - Flink 1.7.1 无法通过 core-site.xml 验证 s3a

使用Flink1.7.1为kubernetes上的单个作业集群构建它flink无法加载核心站点xml尽管在类路径上,导致忽略配置,但是,如果我将ENV变量AWS_SECRET_ACCESS_KEYAWS_ACCESS_KEY_ID工作找到它,但如果我依赖于core-site.xml,那么没有环境变量它就永远无法工作。我目前正在复制core-site.xml,因为它显示在Dockerfile中,并且正如文档所说,将HADOOP_CONF_DIR作为指向它的环境变量。它仍然不加载它,导致NoCredentialsProvider。异常(exception)是:Causedby:org.ap

hadoop - 如果没有 hive-site.xml 文件,配置单元如何运行?

我正在尝试在本地设置配置单元。我启动了所有Hadoop进程并设置了{hive}/bin路径。在命令提示符下,我可以运行配置单元命令、创建和读取表。我的问题是-1)hive-site.xml是可选文件吗?2)在没有hive-site.xml文件的情况下,hive如何获取regradingmetastore等配置的信息? 最佳答案 如果您从安装了Hadoop的本地计算机运行Hive查询,则不需要hive-site.xml,因为您直接与hive/bin对话在Hive安装目录中。您无需告诉Hive在哪里可以找到Hive。如果您想从另一台机器

hadoop - hdfs-site.xml 用于添加新的数据节点

我已经在伪分布式模式下安装了hadoop2.7.2(machine-1)。我想向它添加一个新的数据节点以使其成为一个集群。作为,但问题是两台机器都有不同的磁盘分区。我在新的数据节点(machine-2)中安装了相同版本的hadoop2.7.2,也可以与machine-1ssh。在谷歌搜索了很多网站之后,都有共同的教程提到,我们必须在里面有相同的配置文件/etc/hadoop/文件夹。综上所述,我在machine-1中的现有配置是:核心站点.xmlhadoop.tmp.dir/home1/tmpAbaseforothertemporarydirectoriesfs.default.nam

hadoop - 在 spark-submit 执行时覆盖 core-site.xml 属性值

有没有办法在执行sparksubmit时覆盖core-site属性值?我可以在spark-env.sh中使用HADOOP_CONF_DIR变量来指向一个新的核心站点文件,但我只想覆盖几个值以便为每个spark作业使用不同的存储帐户。 最佳答案 找到了我自己问题的答案。hadoop相关的配置可以通过预先固定“spark.hadoop”到属性键来覆盖,然后提交给sparkconf。即Spark提交--sparkconfspark.hadoop.io.file.buffer.size12952查看源代码:https://github.co

hadoop - Oozie java-action 不包含 core-site.xml

在新安装的HadoopHDP2.2.2.4上运行Ooziejava操作时,例如尝试访问hdfs,它会访问错误的文件系统:java.lang.IllegalArgumentException:错误的FS:hdfs:/tmp/text.txt,预期:file:///可以通过在Oozie操作中包含core-site.xml来修复:hdfs:/path-to-core-site.xml-on-hdfs但是原因是什么,正确的解决方法是什么? 最佳答案 core-site.xml不包含在java-action的类路径中的原因是属性mapredu