草庐IT

Cloudera-Manager-Installation

全部标签

hadoop - 无法打开cloudera管理器

我是大数据和hadoop的新手,我制作了一个名为test的文件,其中包含helloworld内容,我想在尝试此操作时将其上传到文件浏览器中,它给了我一个错误,我试图通过在此搜索答案来解决它网站,我发现问题出在群集“clouderamanager”中,当我尝试打开它时,它给了我一条消息,强烈建议使用10个Rams,但如果你想强制打开,请使用命令force“我的电脑是6gram并且在下载系统时建议使用8gram总线我给虚拟机5.5gram并且它在使用系统时很灵活那么问题是什么以及我如何强制启动cloudera管理器? 最佳答案 启动终端

java - 获取 ArrayIndexOutOfBoundsException : 3 while executing Hadoop Pragram on cloudera

在clouderalinux机器上我得到ArrayIndexOutOfBoundsException:3。我不明白为什么这个程序会出现这个异常,只有其他人对我来说很好。publicclassTransactionCountextendsConfiguredimplementsTool{@Overridepublicintrun(String[]arg0)throwsException{if(arg0.length 最佳答案 我认为在if条件下你应该使用arg0.length而不是arg0.length

linux - 如何将文件从本地磁盘传输到 Cloudera 虚拟机? (我已经看过了所以什么也没发现)

这太琐碎了,太琐碎了,我在这里找不到任何东西。所以,我的任务很简单。获取一个简单的.txt文件并将其传输到cloudera中的hdfs目录中。我已经试过了:但运气不好。任何帮助或指导将不胜感激。 最佳答案 假设您已经将文件复制到VM并且您已登录到VM(linux),您应该使用的命令是:hdfsdfs-copyFromLocal如果您没有在HDFS上创建主目录,请先使用以下方法创建它:hdfsdfs-mkdir-p/user/madhav/你在命令中给出的路径在我看来是错误的。它应该看起来像:hdfsdfs-copyFromLocal

java - 使用cloudera hadoop java培训项目时加载类失败

我正在使用clouderaquickstart在java中实现一个hadoop项目:我的cloudera-quickstart版本是5.8.0以下是错误消息:SLF4J:Failedtoloadclass"org.slf4j.impl.StaticLoggerBinder".SLF4J:Defaultingtono-operation(NOP)loggerimplementationSLF4J:Seehttp://www.slf4j.org/codes.html#StaticLoggerBinderforfurtherdetails.17/04/0914:11:36WARNutil.N

hadoop - 在 Cloudera Quickstart VM 中导入所有表时在 Sqoop 中出现错误

当我尝试通过sqoop导入所有表时出现以下错误:sqoopimport-all-tables-m12--connect在此处输入代码"jdbc:mysql://quickstart.cloudera:3306/retail_db"--username=retail_dba--password=cloudera--warehouse-dir=/r/cloudera/sqoop_importPleaseset$ACCUMULO_HOMEtotherootofyourAccumuloinstallation.17/04/2315:29:27INFOsqoop.Sqoop:RunningSqo

hadoop - 心跳到 <hostname> :7182 failed during Cloudera Installation on 3 node cluster

我正在使用ClouderaManager创建一个3节点的cloudera集群。我遵循了cloudera文档:[1]https://www.cloudera.com/documentation/enterprise/latest/topics/cm_ig_install_path_b.html#concept_wkg_kpb_pn登录到cloudera管理器并输入3个节点的主机名后,当我尝试安装它时会出现以下消息:安装失败。无法从代理接收心跳。确保主机的主机名配置正确。确保端口7182可在ClouderaManagerServer上访问(检查防火墙规则)。确保正在添加的主机上未使用端口9

hadoop - Cloudera hadoop数据存储到特定节点

我有10个amazonec2节点集群用于每天的数据处理,我想将所有10个节点用于每天的批处理(仅处理2小时),一旦生成报告数据点,我想关闭5节点,并在一天的其余时间仅使5个节点处于事件状态以进行成本优化。我的复制因子是3。在某些情况下,所有3个数据block(实际和复制block)都存储在我正在关闭的那5个节点中。因此我无法正确读取数据。我能否在cloudera管理器中进行一些设置以将特定数据库或特定表持久保存到给定节点中,这样我在只有5个事件节点时读取数据时不会有任何问题。或任何其他建议将不胜感激。 最佳答案 您可以使用机架感知(

Hadoop 安装和 Cloudera 管理器 - SSH

关闭。这个问题是off-topic.它目前不接受答案。想改进这个问题吗?Updatethequestion所以它是on-topic用于堆栈溢出。关闭9年前。Improvethisquestion抱歉,这是我在几个小时内就同一主题发表的第二篇文章。只是尝试使用Cloudera的免费安装来安装Hadoop。我是Linux和Hadoop的新手。到了可以登录ClouderaManager的地步。第一次登录,提示创建集群。不确定我应该放在这里什么,但localhost似乎已被识别,我可以继续。我接受了SelectRepository屏幕上的所有默认设置。然后我进入SSH凭据屏幕。在这里我不知道我

hadoop - 亚马逊弹性 map 减少 : Command Line Tools installation Issue?

我是Amazon网络服务的新手,我正在尝试使用命令行界面工具在Amazonelasticmapreduce作业上运行作业流。我遵循了这个developerguide的亚马逊开发者指南中的步骤来自aws。但我还不清楚。如果我执行命令来列出作业流程。显示以下错误。:~/Applications/elastic-mapreduce-ruby$elastic-mapreduce--listError:Requesthasexpired.Timestampdate:2013-07-09T01:13:42-07:00在此先感谢,任何人都可以告诉我为什么我在列出工作流程时遇到上述错误。

hadoop - 使用 Kerberos 访问 Cloudera Hadoop 会出现 TokenCache 错误 : Can't get Master Kerberos principal for use as renewer

我正在尝试从MacBookProOSX10.8.4访问ClouderaHadoop设置(HIVE+Impala)。我们在Linux服务器上安装了ClouderaCDH-4.3.0。我已将CDH-4.2.0tarball提取到我的MacBookPro。我已经设置了正确的配置和Kerberos凭据,以便像“hadoop-fs-ls/”这样的命令可以工作并且HIVEshell可以启动。但是,当我执行“显示数据库”命令时,出现以下错误:>hive>showdatabases;>Failedwithexceptionjava.io.IOException:java.io.IOException: