草庐IT

CHANGE_CONFIGURATION

全部标签

hadoop - 查询返回非零代码 : 1, 导致 : hive configuration hive. root.logger 不存在

我正在尝试运行HiveCLI(bin/hive),但以下错误不允许Hive启动:Queryreturnednon-zerocode:1,cause:hiveconfigurationhive.root.loggerdoesnotexists.这是整个调试信息:JavaHotSpot(TM)64-BitServerVMwarning:UsingtheParNewyoungcollectorwiththeSerialoldcollectorisdeprecatedandwilllikelyberemovedinafuturereleaseSLF4J:Classpathcontainsmul

hadoop - HDP : How to change HADOOP_CLASSPATH value

根据这篇故障排除文章,我需要向HADOOP_CLASSPATH环境变量添加一个值:https://docs.hortonworks.com/HDPDocuments/HDP2/HDP-2.3.2/bk_installing_manually_book/content/troubleshooting-phoenix.html当我在控制台中键入echo$HADOOP_CLASSPATH时,我得到一个空结果。我想我需要在config.xml文件中设置这些值...在哪里或如何将这个新值设置为环境变量?我可以在spark-submit中设置吗? 最佳答案

xml - 配置单元-site.xml : The element type "configuration" must be terminated by the matching end-tag "</configuration>"

为了练习/学习,我正在尝试在Ubuntu系统上安装Hive。我正在遵循一组预先编写的说明。它说通过转到$HIVE_HOME并运行bin/hive来测试Hive安装。当我这样做时,我得到了相当大的文本转储,但我认为最重要的一点如下:**[FatalError]hive-site.xml:2787:3:Theelementtype"configuration"mustbeterminatedbythematchingend-tag"".17/05/0610:46:12FATALconf.Configuration:errorparsingconffile:/usr/local/hive/c

configuration - 能够限制 hadoop hive mapred 作业的最大 reducer ?

我试过在查询前加上:setmapred.running.reduce.limit=25;和sethive.exec.reducers.max=35;最后一个将530个reducer的工作减少到35...这让我觉得它会尝试将530个reducer的工作值(value)降低到35个。现在给setmapred.tasktracker.reduce.tasks.maximum=3;尝试查看该数字是否是每个节点的某种最大值(之前在具有70个潜在reducer的集群上为7)。更新:setmapred.tasktracker.reduce.tasks.maximum=3;没有效果,但值得一试。

linux - Hadoop HDFS 测试运行问题 - org.apache.hadoop.conf.Configuration NoClassDefFoundError

我正在使用Hadoop0.21.0。并尝试运行CAPI库附带的hdfs_test应用程序。经过许多问题后,我能够编译hdfs_test。现在,当我运行它时:./hdfs_test我收到以下错误:Exceptioninthread"main"java.lang.NoClassDefFoundError:org/apache/commons/logging/LogFactoryatorg.apache.hadoop.conf.Configuration.(Configuration.java:153)Causedby:java.lang.ClassNotFoundException:org

configuration - 在 ec2 上手动配置 hadoop

谁能给我指出任何资源的方向,这些资源可以帮助我在EC2上手动设置/配置Hadoop(1.0.4)。我同意有很多资源可以使用工具、服务等来完成这项工作,但我正在寻找的是一些帮助,以确定对conf/*.xml文件进行哪些修改手动slaves和master都是为了让Hadoop正常工作。现在,我有5个ec2实例在运行,它们都能够在伪分布式模式下单独运行hadoop作业。所以,我需要通过配置conf文件的方式,将一个变成master,其余的变成slave,让slave知道namenode和jobtracker在哪里,而master知道所有的slave。我的理解是,我还必须配置实例的EC2安全组

configuration - Hadoop节点&核心分配策略

我有一个有50个节点的集群,每个节点有8个计算核心。如果我的工作计划使用200个reducer,为了获得更好的性能,什么是好的计算资源分配策略?我的意思是,是为每个节点分配50个节点和4个核心,还是为每个节点分配25个节点和8个核心?在什么情况下哪个更好? 最佳答案 要回答您的问题,这取决于几件事。在我看来,50个节点总体上会更好:如果您要从磁盘读取大量数据,50个节点会更好,因为您将从磁盘上并行加载2倍。如果您要计算和处理大量数据,50个节点会更好,因为核心数量不会与处理成1:1比例(即,2倍的核心数并不完全是2倍的速度.....

configuration - Hadoop 推荐素数的 map/reduce 任务?

我在模板配置文件中看到了这些:mapred.map.tasks2Thedefaultnumberofmaptasksperjob.Typicallysettoaprimeseveraltimesgreaterthannumberofavailablehosts.Ignoredwhenmapred.job.trackeris"local"....mapred.reduce.tasks1Thedefaultnumberofreducetasksperjob.Typicallysettoaprimeclosetothenumberofavailablehosts.Ignoredwhenmap

hadoop - java -Dlog4j.configuration 命令不工作

我在R中遇到Hadoopmapreduce问题,在日志中我确实发现了这个:log4j:WARNNoappenderscouldbefoundforlogger(org.apache.hadoop.ipc.Server).log4j:WARNPleaseinitializethelog4jsystemproperly.log4j:WARNSeehttp://logging.apache.org/log4j/1.2/faq.html#noconfigformoreinfo提出了我的问题here不幸的是没有反应,所以经过大量研究我发现我需要用这个命令告诉在哪里可以找到log4j:-Dlog4

configuration - 更改 Hadoop 从节点上的默认配置?

目前,我正在尝试通过命令行参数传递一些值,然后使用实现工具的GenericOptionsParser解析它。我从主节点运行这样的东西:bin/hadoopjarMYJAR.jarMYJOB-Dmapred.reduce.tasks=13但这只适用于法师!!有什么方法可以使它也适用于奴隶吗?我使用Hadoop0.20.203。感谢任何帮助。 最佳答案 但这只适用于法师!!有什么方法可以使它也适用于奴隶吗?根据"Hadoop:TheDefinitiveGuide".在客户端设置一些属性是没有用的。您需要在配置文件中进行相同的设置。请注意