草庐IT

ext_conf_template

全部标签

Hadoop:/usr/lib/hadoop-0.20.2/conf/slaves: 没有那个文件或目录

我完全按照hadoop官网上的步骤操作,但是总是报如下错误:startingnamenode,loggingto/home/videni/Tools/hadoop-1.0.3/libexec/../logs/hadoop-videni-namenode-videni-Latitude-E6400.outcat:/usr/lib/hadoop-0.20.2/conf/slaves:Nosuchfileordirectorycat:/usr/lib/hadoop-0.20.2/conf/masters:Nosuchfileordirectorystartingjobtracker,logg

hadoop - 即使在设置 KRB5_CONFIG 之后,Kerberos 仍然使用默认的/etc/krb5.conf 文件

我无权更改/etc/krb5.conf中的文件,因此我设置了KRB5_CONFIG。exportKRB5_CONFIG=/home/user/keytab/krb5.conf回显此变量验证此路径已设置,但当我尝试kinit时它仍在使用/etc/krb5.conf文件。我还需要设置什么吗?我需要设置任何特定权限或重新启动任何服务吗?我这样做的原因是Hadoop不支持非默认领域。 最佳答案 您可以通过传递参数指向您所在位置的krb5.conf-Djava.security.krb5.conf=/home/user/keytab/krb5

hadoop - 色调配置错误 -/etc/hue/conf.empty - 检测到潜在的错误配置

您好专家,我是Hadoop、linux环境和Cloudera的新手。我在我的机器上安装了clouderavm5.7,并使用SQOOP将mysql数据导入到hdfs。我正在尝试使用impala对这些数据执行一些查询。所以,我尝试启动HUE。当我启动时,我可以看到有一些配置错误。错误:检测到潜在的错误配置。修复并重新启动Hue。我已采取的解决此问题的步骤1)我使用以下命令重新启动了HUE:sudoservicehuestopsudo服务色调启动2)我尝试查看以下目录文件./etc/hue-我可以看到有两个配置文件夹。一个是config,另一个是config.empty。我无法弄清楚问题所在

hadoop - 为什么 Hive "create external table"在 S3 上将数据存储在子文件夹 "-ext-10000"下?

下面的Hive代码突然开始在一个额外的子文件夹下存储数据;DROPTABLEIFEXISTSfolder_test;CREATEEXTERNALTABLEIFNOTEXISTSfolder_test(col1STRING,col2INT,col3INT)ROWFORMATDELIMITEDFIELDSTERMINATEDBY","LOCATION's3n://bucket_name/folder_name';insertoverwritetablefolder_testselectcol1,col2,col3fromdata_tablelimit10;因此,数据不是存储在“s3n://

amazon-web-services - 使用 Scala 读取 .aws/credentials 文件以获取来自 spark 的 hadoop conf 设置

我如何才能读取位于.aws目录下的credentials文件中的不同aws配置文件?只想让我的应用程序读取访问key和secret,如下所示,但不确定如何将这一点指向凭证文件。objectS3KeyStoreextendsSerializable{privatevalkeyMap=Map(String,S3Key)defload(key:String)(implicitsc:SparkContext)=keyMap.get(key)match{caseSome(k)=>valhc=sc.hadoopConfigurationhc.set("fs.s3a.awsAccessKeyId",

hadoop - 是否可以在驱动程序中向 conf 对象添加属性?

我的MR工作是这样获得的:Jobjob=newJob(conf,"helloWorld");在conf上设置的任何值都可以跨节点使用。但我不确定以下是否有效:在MAP中conf.set("hello","world");在驱动程序中if(job.waitForCompletion(true)){System.out.println(conf.get("hello"));}在map/reduce阶段对conf所做的修改是否会在驱动程序中可见? 最佳答案 当您提交作业时,您还提供了配置,如您所说:Jobjob=newJob(conf,"

python - spark 1.3.0、python、avro 文件、在 spark-defaults.conf 中设置的驱动程序类路径,但从属设备看不到

我正在使用带有python的spark1.3.0。我有一个使用以下命令读取avro文件的应用程序:conf=NonerddAvro=sc.newAPIHadoopFile(fileAvro,"org.apache.avro.mapreduce.AvroKeyInputFormat","org.apache.avro.mapred.AvroKey","org.apache.hadoop.io.NullWritable",KeyConverter="org.apache.spark.examples.pythonconverters.AvroWrapperToJavaConverter",

java.lang.ClassNotFoundException : org. apache.hadoop.conf.配置

我一直收到这个错误。我已经在类路径中包含了hadoopcommons和核心库,但我仍然收到这个错误。非常感谢您的帮助 最佳答案 这是解决问题的方法:查看您正在执行的jar内部,看看该类文件是否确实存在:jartvftarget/my-jar-with-dependencies.jar|grephadoop/conf/Configuration.class如果不是,则需要将其添加到类路径或更改jar的打包方式。您使用的是Maven还是类似的构建工具?您可能有一个带有“范围”的依赖项,这意味着它只会在特定情况下编译到您的jar中。org

hadoop - Ext JS 库未在 Oozie 中正确安装

当我访问oozieUI时收到以下消息。Ooziewebconsoleisdisabled.ToenableOoziewebconsoleinstalltheExtJSlibrary.我正在使用HDP分发并通过ambari服务安装程序进行安装。我尝试访问以下链接:https://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.6.4/bk_command-line-installation/content/install_oozie_rpms.html尝试使用yum安装时收到以下消息:$sudoyuminstallextjs-2.2-1Loade

Hadoop 释放丢失/conf 目录

我正在尝试在Ubuntu上安装Hadoop的单节点设置。我开始关注instructionsontheHadoop2.3docs.但我似乎遗漏了一些非常简单的东西。首先,它说TogetaHadoopdistribution,downloadarecentstablereleasefromoneoftheApacheDownloadMirrors.然后,UnpackthedownloadedHadoopdistribution.Inthedistribution,editthefileconf/hadoop-env.shtodefineatleastJAVA_HOMEtobetheroot