草庐IT

conf_dir

全部标签

java -/conf 目录在 Hadoop 2.5.1 中丢失错误

我已经在我的系统上配置了Hadoop2.5.1。当我尝试启动节点时,出现错误:“找不到配置目录:/conf”,如下所示。hduser@System-Vaio:/usr/local/hadoop/sbin$./start-dfs.shIncorrectconfiguration:namenodeaddressdfs.namenode.servicerpc-addressordfs.namenode.rpc-addressisnotconfigured.Startingnamenodeson[]Error:Cannotfindconfigurationdirectory:/confErro

bash - Docker 上的 DataStax Enterprise : fails to start due to/hadoop/conf directory not being writable

我关注了DataStax'sguideonbestpracticesforusingDSEwithDocker,但我在使用DataStax提供的所有默认设置脚本和Dockerfile时遇到了以下错误。错误日志Causedby:java.lang.RuntimeException:FailedtosavecustomDSEHadoopconfigatcom.datastax.bdp.hadoop.mapred.CassandraJobConf.writeDseHadoopConfig(CassandraJobConf.java:310)~[dse-hadoop-5.0.3.jar:5.0

hadoop - 在/tmp 中设置 hadoop.tmp.dir

我在Hadoop文档中看到1hadoop.tmp.dir的默认值是/tmp/hadoop-${user.name}但如果我这样设置,当机器重新启动时,我是否丢失数据?我的意思是,也许我不必在真正的/tmp中设置它,但我需要在/home/myuser/tmp/hadoop-${user.姓名?提前致谢!添加信息:我在/tmp/hadoop-hduser中设置了它,但是由于电源问题导致计算机中断,今天我收到此消息:CallFromjava.net.UnknownHostException:hduser-machine:hduser-machineto本地主机:54310连接异常失败:jav

hadoop - hadoop.tmp.dir 的 VERSION 文件有什么用

最近我格式化了namenode并且在启动hadoop守护进程时datanode失败并给出如下错误2019-01-1110:39:15,449WARNorg.apache.hadoop.hdfs.server.common.Storage:Failedtoaddstoragedirectory[DISK]file:/app/hadoop/tmp/dfs/data/java.io.IOException:IncompatibleclusterIDsin/app/hadoop/tmp/dfs/data:namenodeclusterID=CID-76c39119-061a-4ecf-9de1

Hadoop : java. io.IOException : No valid local directories in property: mapred. local.dir

当我运行hadoop作业时,它失败并显示以下堆栈跟踪:11/10/0613:12:49INFOmapred.FileInputFormat:Totalinputpathstoprocess:111/10/0613:12:49INFOmapred.JobClient:Cleaningupthestagingareahdfs://localhost:54310/app/hadoop/tmp/mapred/staging/Har/.staging/job_201110051450_000711/10/0613:12:49ERRORstreaming.StreamJob:ErrorLaunch

hadoop - 尽管设置了 spark.yarn.conf,但仍上传了 Spark 程序集文件

我有时通过相对较慢的连接使用spark-submit将作业提交到在Yarn上运行的Spark集群。为了避免为每个作业上传156MB的spark-assembly文件,我将配置选项spark.yarn.jar设置为HDFS上的文件。但是,这并没有避免上传,而是从HDFSSpark目录中取出程序集文件并将其复制到应用程序目录中:$:~/spark-1.4.0-bin-hadoop2.6$bin/spark-submit--classMyClass--masteryarn-cluster--confspark.yarn.jar=hdfs://node-00b/user/spark/share

hadoop - Kryos/Java 序列化程序的 Spark-shell --conf 选项

我需要使用sparkhelppage中提到的registerKryoClasses方法启动带有自定义类的sparkshell.现在如页面中所述,我无法在启动sparkshell后重新创建sc变量,因此需要在启动spark-shell命令时提供选项--conf。--conf的选项值应该是什么,以便它等同于以下更新:conf.registerKryoClasses(Array(classOf[ArrayBuffer[String]],classOf[ListBuffer[String]])) 最佳答案 使用Javaserializer而

ubuntu - java.io.IOException : All directories in dfs. datanode.data.dir 无效

我试图让hadoop和hive在我的linux系统上本地运行,但是当我运行jps时,我注意到数据节点服务丢失了:vaughn@vaughn-notebook:/usr/local/hadoop$jps2209NameNode2682ResourceManager3084Jps2510SecondaryNameNode如果我运行bin/hadoopdatanode,会出现以下错误:17/07/1319:40:14INFOdatanode.DataNode:registeredUNIXsignalhandlersfor[TERM,HUP,INT]17/07/1319:40:14WARNut

hadoop - fs.checkpoint.dir 和 dfs.name.dir 有什么区别?

主要是dfs.name.dir属性是用来存储namenode的fsimage到特定位置备份的,fs.checkpoint.dir属性是fsimage合并的位置。这让我有点困惑。任何人都可以详细解释我。 最佳答案 dfs.name.dir是namenode在磁盘中存放fsimage和editlogs的地方。这是一个强制性的位置。没有这个位置,hadoop集群将无法启动。这将位于名称节点主机中。fs.checkpoint.dir是本地文件系统上的目录,DFS辅助名称节点应在其中存储要合并的临时图像。如果这是一个以逗号分隔的目录列表,则图

hadoop - 在一个简单的 Hbase 示例中获取 "package org.apache.hadoop.conf does not exist"

我收到以下错误TestHBase.java:6:error:packageorg.apache.hadoop.confdoesnotexist在ubuntu12.04中尝试以下操作时:hduser@ubuntu:~$javac-classpathhbase-0.94.8.jar:hadoop-core-1.1.2.jarTestHBase.java我试过以下方法:将hadoop-core-1.1.2.jar重命名为hbase自带的hadoop-core-1.0.4.jar后复制到hbase/lib中复制hadoop/lib/commons-*.jar库到hbase/libhduser@