草庐IT

Cloudera-Manager-Installation

全部标签

apache - 如何在 apache hadoop 2.7.1 之上安装 cloudera

我目前正在开发apachehadoop2.7.1,集群包括1个名称节点和3个数据节点。是否可以在现有的apachehadoop2.7.1集群上安装cloudera管理器。如果是,能否请您建议我如何完成。提前致谢。 最佳答案 不,那是不可能的。它是相反的。您安装ClouderaManager,然后从其Web控制台部署Hadoop组件。 关于apache-如何在apachehadoop2.7.1之上安装cloudera,我们在StackOverflow上找到一个类似的问题:

hadoop - 手动下载cloudera docker镜像

我希望在我的笔记本电脑上安装clouderadocker镜像,它说该文件大约4gb,我的互联网连接速度很慢,所以我搜索了手动下载镜像,我找到了-http://www.cloudera.com/documentation/enterprise/5-5-x/topics/quickstart_docker_container.html在上面的图片中,它说我们可以从网站下载图片。所以我去了http://www.cloudera.com/downloads/quickstart_vms/5-7.html选择docker镜像作为平台并登录,然后单击立即下载。它说您的下载将自动开始,或者点击这里,

hadoop - Oozie Job(Cloudera VM)在抛出错误时执行 shell 脚本——错误=2,没有这样的文件或目录

我在尝试执行shell脚本时出现以下错误。如果我在这里做错了,请告诉我。我已将所有文件复制到Hdfs中。Oozie文件夹包含脚本文件夹,我在该文件夹中有sample.sh。Cannotrunprogram"sample.sh"(indirectory"/var/lib/hadoop-yarn/cache/yarn/nm-local-dir/usercache/cloudera/appcache/application_1468541187565_0011/container_1468541187565_0011_01_000002"):error=2,Nosuchfileordirec

hadoop - 在 Cloudera 中扩展 HDFS 内存

我需要在cloudera中将我的hdfs内存从50GB扩展到200GB。我正在使用具有300GB可用空间的虚拟机,但hdfs仅配置为在hdfs上使用50GB。我的dfs.namenode.name.dir指向默认的dfs/nndfs.namenode.name.dirfile:///dfs/nn我的hdfsdfsadming-report给我:[root@localhostconf.cloudera.hdfs]hdfsdfsadmin-reportConfiguredCapacity:55531445863(51.72GB)PresentCapacity:6482358272(6.04

hadoop - Cloudera 上的 Kylin Sample Cube 无法正常工作

我只是想弄清楚我的SampleCube出了什么问题,但我不知道如何找到解决方案。首先,我使用的是Cloudera,cdh5.8.0,Hadoop2.6.0。我有Hive、HBase等等。我必须从Kylin的站点下载cdh的二进制文件,并且...遇到的问题和解决的问题:1)我必须设置一个变量KYLIN_HOME,因为bin/check-env.sh和bin/kylin.shstart都不能正常工作。我只是将其设置为:$echo"exportKYLIN_HOME=/home/cloudera/Kylin_Folder/apache_kylin">>~/.bashrc$source~/.ba

hadoop - 自动化 Cloudera 管理服务

我正在使用ClouderaExpress。ClouderaManager版本为5.12.0。我正在尝试自动启动hdfs、hbase等服务...我可以通过在主机模板中指定每个服务的必要信息,并使用使用ClouderaManager的curl命令将主机模板推送到ClouderaManager来实现应用程序接口(interface)。现在,我想自动启动Cloudera管理服务,如主机监视器、服务监视器、事件服务器、事件监视器和警报发布者。我尝试通过在主机模板中添加每个服务的相应角色类型和服务类型来做到这一点。当我使用curl命令将主机模板推送到ClouderaManager时,Clouder

hadoop - 无法在 cloudera VM 中将配置单元升级到 2.3.2

我将clouderavm中的hive版本升级到2.3.2'。它已成功安装,我将hive-site.xml文件从旧的/hive/conf文件夹复制到较新的conf文件夹并且没有Metastore的问题。但是,当我执行类似'droptabletable_name'`的查询时,它会抛出以下异常:FAILED:SemanticExceptionUnabletofetchtabletable_name.Invalidmethodname:'get_table_req'下面是我的hive-site.xml文件:javax.jdo.option.ConnectionURLjdbc:mysql://1

hadoop - 在docker上的Cloudera QuickStart中扩展HDFS内存

我尝试使用ClouderaQuickStartDockerImage,但hdfs上似乎没有可用空间(0字节)。启动容器后dockerrun--hostname=$HOSTNAME-p80:80-p7180:7180-p8032:8032-p8030:8030-p8888:8888-p8983:8983-p50070:50070-p50090:50090-p50075:50075-p50030:50030-p50060:50060-p60010:60010-p60030:60030-p9095:9095-p8020:8020-p8088:8088-p4040:4040-p18088:18

hadoop - 安装cloudera manager后无法执行任何hadoop命令

我已经成功地设置了我的cdh集群(5.14.0),其中包括4个节点,并安装了包括hdfs、yarn、zookeeper和impala在内的服务。cloudera管理器网页工作正常。但是当我打开一个终端并尝试运行任何hadoop命令时,比如hadoop、impala或任何东西,shell提示“找不到命令”。我使用hadoop用户安装了CM,并使用默认用户cloudera-scm在singer用户模式下运行所有​​服务。我知道CM应该为我设置环境变量,但似乎没有。非常感谢您的帮助! 最佳答案 确保从cloudera管理器服务器下载CDH

mysql - 在 Cloudera 中使用 sqoop 将数据从 HDFS 导出到 mysql 时作业失败

我正在导出HDFS位置/user/training/sqoop_import/departments_export目录中存在的departments_export文件的HDFS数据。以下是文件中的记录。2,Fitness3,Footwear4,Apparel5,Golf6,Outdoors7,FanShop8,Development1000,Admin1001,Books我想将数据导出到名为departments_export(department_idint,department_namevarchar)的mysql表中。此表已包含以下数据mysql>select*fromdepar