草庐IT

conf_dir

全部标签

docker root dir(修改docker的默认目录)

一、作用一般我们新开的服务器,root的空间都不是很大,这时候,我们一般会增加一块别的硬盘。然后把自己的内容放到新的硬盘里。二、dockerinfo使用dockerinfo查看默认的目录 三、修改默认目录1、确保停止docker服务#systemctlstopdocker.service2、修改/etc/docker/daemon.json文件值,文件不存在需手动创建#vim/etc/docker/daemon.json新增以下信息:{"data-root":"/opt/docker/data"}3、启动docker服务#systemctlstartdocker.service4、#docke

java - org.apache.hadoop.conf.Configuration loadResource错误

我正在创建一个简单的helloworldhadoop项目。我真的不知道要包括什么来解决这个错误。似乎hadoop库需要一些我没有包括的资源。我已经尝试将以下参数添加到运行配置中。但它无助于解决问题。-Djavax.xml.parsers.DocumentBuilderFactory=com.sun.org.apache.xerces.internal.jaxp.DocumentBuilderFactoryImpl这是我的代码:/***WritesastaticstringtoafileusingtheHadoopLibraries*/publicclassWriteToFile{pub

hadoop - oozie - sqoop $SQOOP_CONF_DIR 尚未在环境中设置

我正在尝试使用oozie(霍顿作品)运行sqoop。这是我第一次尝试运行oozie工作流,但出现以下错误InvokingSqoopcommandlinenow1811[main]WARNorg.apache.sqoop.tool.SqoopTool-$SQOOP_CONF_DIRhasnotbeensetintheenvironment.Cannotcheckforadditionalconfiguration.2015-12-2116:58:45,913WARN[main]tool.SqoopTool(SqoopTool.java:loadPluginsFromConfDir(177

hadoop - Hive:SHOW CONF 不遵守 hive-site.xml

我有以下配置单元站点配置:[hadoop@ip-10-102-201-205~]$cat/etc/hive/conf.dist/hive-site.xmlhbase.zookeeper.quorumip-10-102-201-205.ec2.internalhttp://wiki.apache.org/hadoop/Hive/HBaseIntegrationhive.execution.enginemrfs.defaultFShdfs://ip-10-102-201-205.ec2.internal:8020hive.metastore.uristhrift://ip-10-102-2

java - Spring Hadoop 配置 - 没有符合条件的 org.apache.hadoop.conf.Configuration 类型的 bean

我正在尝试为Hadoop/Hive环境配置bean。根据文档,我需要ApacheHadoop配置类,它应该是Autowiring的。请参阅:http://docs.spring.io/spring-hadoop/docs/2.4.0.RELEASE/reference/html/springandhadoop-store.html(6.2.2节配置数据集支持)然而,当我尝试运行我的应用程序时,我得到:NoSuchBeanDefinitionException:没有找到类型为[org.apache.hadoop.conf.Configuration]的符合条件的bean依赖:预计至少有1

hadoop - Hadoop 2.x 系列是否弃用了 `dfs.data.dir` 属性?

dfs.data.dir属性在2.x系列中是否仍然有效?从这个hdfs-site.xmldocumentation大概版本1.2.1和这个hdfs-site.xmldocumentation是什么对于大概2.4.1来说,很明显dfs.data.dir已被弃用。我的推断是真的吗?如果是这样,现在它的等价物是什么?在生产中更改hadoop.tmp.dir并保留它? 最佳答案 请查看此链接Deprecatedproperty,由于该属性被标记为已弃用,您仍然可以利用该属性的功能行为。最好使用Deprecated属性。

scala - 监听器异常 : Mkdirs failed to create/tmp/temporary ( full permission given to the dir. )

当我编写流数据时显示此错误时,我正在学习结构化流CountQuery:org.apache.spark.sql.streaming.StreamingQuery=org.apache.spark.sql.execution.streaming.StreamingQueryWrapper@604770e3org.apache.spark.sql.streaming.StreamingQueryException:QueryCount[id=4ce8572a-24c9-4cde-97e4-051426cbb15e,runId=59c60d53-73ee-43a4-8792-d5907a88

hadoop - SparkR 错误 : The root scratch dir:/tmp/hive on HDFS should be writable

我正在尝试初始化SparkR,但出现权限错误。我的Spark版本是spark-2.2.1-bin-hadoop2.6。我搜索了这个错误以及如何解决它,我发现了几个相关的主题。但是,我无法使用与这些主题相同的方法来解决它,他们提供的解决方案(以及我尝试过的解决方案)是使用以下命令授予/tmp/hive目录权限:sudo-uhdfshadoopfs-chmod-R777/tmp/hive有足够知识的人可以给我另一种可能的解决方案吗?错误堆栈跟踪如下:$sudo./bin/sparkRRversion3.4.2(2017-09-28)--"ShortSummer"Copyright(C)20

amazon-web-services - 在EMR集群上如何进入/etc/hadoop/conf这个路径?

我是EMR和Spark的新手。我正在执行此处提到的这些步骤https://aws.amazon.com/premiumsupport/knowledge-center/emr-submit-spark-job-remote-cluster/.在第5步中,它说复制远程AmazonEMR集群上/etc/hadoop/conf中的所有文件。。想知道如何从/etc/hadoop/conf获取这些文件。如果我的理解有误,请指正。在此先感谢并感谢。 最佳答案 通过ssh访问EMR实例,进入文件夹/etc/hadoop/conf并将所有文件复制到

apache-spark - 如何将 hadoop conf 目录指定为 conf 属性以启动应用程序

是否有一个spark属性,我们可以在执行spark提交时设置它指定hadoop配置路径,专门指向自定义hdfs-site.xml和core-site.xml文件 最佳答案 首选的方法是在spark-submit之前设置Hadoop配置目录,而不是单独配置这些文件。exportHADOOP_CONF_DIR=/your/hadoop/dir但如果必须使用sparkConfig来设置,可以按如下方式设置,sparkConfig.set("spark.hadoop.yarn.resourcemanager.hostname","XXX")