草庐IT

Cloudera-Manager-Installation

全部标签

postgresql - 有人在 cloudera 5.2.0 上使用 hadoop_fdw 吗?

将hadoop_fdw安装到我们正在运行的pgsql9.3.4后,我尝试将它连接到clouderacluster5.2.0,但没有成功。有没有调试fdw的方法?创建外部表并从中选择后,我收到一个错误-错误:无法连接到Hive:没有更多数据可读取。顺便说一句:一些旧版本的hadoop_fdw能够使用url(jdbc://server:port/args),但最新版本不行,只有地址和端口。 最佳答案 Hadoop_fdw没有成功。hive.c中可能有错误/旧的/过时的东西。但是通过更多的努力,我们设法使jdbc_fdw与cloudera

linux - Cloudera Manager 检查器未在主机上运行

我目前有3台机器,所有bootcampedmac都运行Ubuntu,我正在尝试使用CDH5将它们设置为Hadoop集群。在使用安装程序向导时,当它“检查主机的正确性时,我得到如下所示的错误.检查器在所有主机上都失败了,它说IOExceptionthrownwhilecollectingdatafromhost:Connectionrefused在设置机器时,我在运行cloudera管理器安装程序之前做的唯一一件事就是启用ssh。在主机文件中都有本地主机和我的用户在127.0.0.1关于为什么连接被拒绝或者我可以做些什么来修复它有什么想法吗? 最佳答案

hadoop - Cloudera Manager - HDFS 可用空间健康问题故障排除

我有一个由两台主机配置的集群-我正在运行的作业似乎正在创建大量日志,并且我的一个hdfs数据节点显示严重的健康问题为-四件事:如何清理这些日志并腾出空间?从/var/log/hadoop-hdfs手动删除它们是个好主意吗?如上/var/log/hadoop-hdfs目录只有610MBhdfs的空间在哪里被占用?如何配置日志文件以定期删除?我有HDFS、Spark和YARN-MR2服务已启动并正在运行,它们都在创建自己的日志。我也想清理那些。谢谢! 最佳答案 深入研究hdfs之后-要获取哪个目录的大小,请执行:hadoopfs-du-

java - 使用Cloudera快速启动vm和pig shell的Apache Pig输入路径错误

我尝试为yelp作业运行以下pig命令:--*******PIGLATINSCRIPTforYelpAssignmet******************--0.getfunctiondefinedforCSVloaderregister/usr/lib/pig/piggybank.jar;defineCSVLoaderorg.apache.pig.piggybank.storage.CSVLoader();--Thedata-fujarfilehasaCSVLoaderwithmoreoptions,likereadingmultilinerecords,--butforthisas

hadoop - 我想知道(公式)如何计算 namenode、yarn 和 Resource Manager 的 RAM、CPU 和磁盘内存

我正在尝试构建不同大小的集群,这就是为什么我需要可以从中计算namenode、yarn和资源管理器的RAM、CPU和磁盘内存的公式。还想知道RAM、CPU和磁盘之间的关系。 最佳答案 您可以使用Cloudera指南Download 关于hadoop-我想知道(公式)如何计算namenode、yarn和ResourceManager的RAM、CPU和磁盘内存,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.co

hadoop - 从 Cloudera 中删除死主机

我正在尝试从ClouderaManager的集群中删除主机。主机已死且不可用。当我为所选主机单击“删除”时,我收到消息:BlockquoteThefollowing1host(s)cannotbedeletedbecausetheyarenotcompletelydecommissionedorhaveroleswithdependentservices不幸的是,我也无法停用该主机。HDFS的退役在步骤中永远运行(一夜)WaitingforDecommissioningtofinish.在此主机的“操作”菜单中,“主机上的停止角色”处于非事件状态。“在主机上启动角色”失败并且不会使“在

hadoop - 使用 Cloudera Hbase 需要任何许可证吗?

安装了CDH5.8express,在安装时我遇到了这个..注意:请确保您拥有适当的Hbase许可证或联系cloudera寻求帮助。 最佳答案 此消息的上下文是商业支持的可用性。Cloudera对HBase的支持可通过特定的产品版本获得。当然,HBase本身带有Apache许可证,因此可以免费使用。 关于hadoop-使用ClouderaHbase需要任何许可证吗?,我们在StackOverflow上找到一个类似的问题: https://stackoverflo

hadoop - Cloudera Hive : Where to add json-serde-1. 3.7 jar文件

我使用的是cloudera5.8.0首先我运行这个命令:hive>ADDJAR/usr/lib/hive/lib/hive-serdes-1.0-SNAPSHOT.jar;Added[/usr/lib/hive/lib/hive-serdes-1.0-SNAPSHOT.jar]toclasspathAddedresources:[/usr/lib/hive/lib/hive-serdes-1.0-SNAPSHOT.jar]然后我添加了json-serde-1.3.7jar文件hive>ADDJAR/usr/lib/hive/lib/json-serde-1.3.7-jar-with-d

hadoop - 如何在没有互联网连接的情况下手动安装 Cloudera with Parcels?

我正在尝试在RedHat6上安装Cloudera5.7。在ClouderaManager向导GUI中,在“选择存储库”屏幕上,我选中“用户包(推荐)”。但是我看不到“选择CDH版本”的选项。我没有互联网连接。我不想使用包。我应该怎么做才能安装Parcels?我无法使用Parcels继续安装。 最佳答案 您可以在此处找到5.7的说明:https://www.cloudera.com/documentation/enterprise/5-7-x/topics/cm_ig_create_local_parcel_repo.html对于最新

hadoop - 如何使用 Cloudera Quickstart Docker 容器执行 MapReduce 作业/JAR

关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。关闭5年前。Improvethisquestion我需要一些关于如何使用ClouderaDocker容器运行MapReduce程序/作业的帮助。我正在使用Linux(ElementaryOS)高配置。笔记本电脑(24GB内存,i7处理器)。我能够安装Clouderadocker镜像,运行它并毫无问题地执行以下操作:1.看到#提示符并运行HDFS命令(hadoopfs-ls),尽管它没有返回任何内容。2.可以访问Hue