草庐IT

virt-manager

全部标签

hadoop - 在 ubuntu 12.04 LTS 中使用 cloudera manager 安装 Cloudera CDH5

我正在尝试在Ubuntu12.04LTS(64位)中使用ClouderaManager安装CDH5。我正在按照Clouderalink中提到的步骤进行操作.我无法为安装CDH5指定正确的主机名。除了/etc/hosts文件中的127.0.0.1和127.0.1.1之外,我没有任何其他条目。我正在使用USB加密狗访问互联网,但我现在没有任何以太网连接。请告诉我是否需要以太网连接才能在我的PC中安装CDH5。附言我目前是一名大型机开发人员,没有任何Linux或开源背景。我花了将近40个小时的时间试图在我的机器上安装CDH5,以便我可以进行Udacity'sIntroductiontoHad

来自 Cloudera Manager 的电子邮件警报

我们需要设置一个流程,使我们能够从ClouderaManager接收基于Hadoop指标的电子邮件警报。例如。某项服务出现故障,超过10个数据节点被列入黑名单等。在CM5.1版中实现此目标的最佳方法是什么? 最佳答案 您是否尝试在管理->警报下查看Cloudera管理器?那里有相当多的内置监控和警报配置选项。关于您的示例,在HDFS警报下有一个针对“DataNode健康”的特定设置。 关于来自ClouderaManager的电子邮件警报,我们在StackOverflow上找到一个类似的问

linux - Cloudera Manager 检查器未在主机上运行

我目前有3台机器,所有bootcampedmac都运行Ubuntu,我正在尝试使用CDH5将它们设置为Hadoop集群。在使用安装程序向导时,当它“检查主机的正确性时,我得到如下所示的错误.检查器在所有主机上都失败了,它说IOExceptionthrownwhilecollectingdatafromhost:Connectionrefused在设置机器时,我在运行cloudera管理器安装程序之前做的唯一一件事就是启用ssh。在主机文件中都有本地主机和我的用户在127.0.0.1关于为什么连接被拒绝或者我可以做些什么来修复它有什么想法吗? 最佳答案

hadoop - Cloudera Manager - HDFS 可用空间健康问题故障排除

我有一个由两台主机配置的集群-我正在运行的作业似乎正在创建大量日志,并且我的一个hdfs数据节点显示严重的健康问题为-四件事:如何清理这些日志并腾出空间?从/var/log/hadoop-hdfs手动删除它们是个好主意吗?如上/var/log/hadoop-hdfs目录只有610MBhdfs的空间在哪里被占用?如何配置日志文件以定期删除?我有HDFS、Spark和YARN-MR2服务已启动并正在运行,它们都在创建自己的日志。我也想清理那些。谢谢! 最佳答案 深入研究hdfs之后-要获取哪个目录的大小,请执行:hadoopfs-du-

hadoop - 我想知道(公式)如何计算 namenode、yarn 和 Resource Manager 的 RAM、CPU 和磁盘内存

我正在尝试构建不同大小的集群,这就是为什么我需要可以从中计算namenode、yarn和资源管理器的RAM、CPU和磁盘内存的公式。还想知道RAM、CPU和磁盘之间的关系。 最佳答案 您可以使用Cloudera指南Download 关于hadoop-我想知道(公式)如何计算namenode、yarn和ResourceManager的RAM、CPU和磁盘内存,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.co

hadoop - 由于 hbase 客户端 jar 中的硬编码 managed=true,无法连接到 Bigtable 以扫描 HTable 数据

我正在开发一个自定义加载函数,以便在Dataproc上使用Pig从Bigtable加载数据。我使用从Dataproc获取的以下jar文件列表编译我的java代码。当我运行以下Pig脚本时,它在尝试与Bigtable建立连接时失败。错误信息是:Bigtabledoesnotsupportmanagedconnections.问题:是否有解决此问题的方法?这是一个已知问题吗?是否有解决或调整的计划?是否有不同的方法将多重扫描作为Pig的加载函数来实现并与Bigtable一起工作?详细信息:Jar文件:hadoop-common-2.7.3.jarhbase-client-1.2.2.jar

hadoop - 无法在端口 7180 上设置 cloudera manager web - 集群安装

我正在使用具有以下主机名的ubuntu本地计算机并尝试设置clouderaHadoopDistributionCDH5。chaithu@localhost:~$hostnamelocalhostchaithu@localhost:~$hostname-flocalhostchaithu@localhost:~$sshchaithu@localhostWelcometoUbuntu16.04.2LTS(GNU/Linux4.8.0-36-genericx86_64)*Documentation:https://help.ubuntu.com*Management:https://land

hadoop - 使用 Cloudera Manager 安装 CDH : No such file or directory

使用CM安装并成功下载和分发所有包裹。但是,所有代理都不会在分发100%完成时解压包裹。检查日志,它说:[21/Nov/201809:53:04+0000]30292MainThreadparcelINFOExecutingcommand['chown','root:yarn',u'/opt/cloudera/parcels/CDH-6.0.1-1.cdh6.0.1.p0.590678/lib/hadoop-yarn/bin/container-executor'][21/Nov/201809:53:04+0000]30292MainThreadparcelINFOchmod:/opt

hadoop - Hive managed table drop 不会删除 HDFS 上的文件。任何解决方案?

从hive中删除托管表时,它与hdfs中的关联文件不会被删除(在azure-databricks上)。我收到以下错误:[Simba]SparkJDBCDriverERRORprocessingquery/statement.ErrorCode:0,SQLstate:org.apache.spark.sql.AnalysisException:Cannotcreatethemanagedtable('`schema`.`XXXXX`').Theassociatedlocation('dbfs:/user/hive/warehouse/schema.db/XXXXX)alreadyexis

hadoop - Cloudera Manager 和 hdfs-site.xml

使用ClouderaManager时,我可以通过以下方式访问hdfs-site.xml文件:ClouderaManager>Cluster>HDFS>Instances>(NameNode,例如)>Processes配置文件>hdfs-site.xml然后URL指向:http://quickstart.cloudera:7180/cmf/process/8/config?filename=hdfs-site.xml这个文件是否可以通过文件系统直接访问,如果可以,它位于何处 最佳答案 ClouderaManager中设置的配置存储在C